web-dev-qa-db-fra.com

Pourquoi RAID 1 + 6 n'est-ce pas une mise en page plus commune?

Pourquoi les niveaux RAID imbriqués 1 + 5 ou 1 + 6 sont-ils presque inutiles? Le Niveaux de RAID imbriqués Wikipedia Article manque actuellement leurs sections. Je ne comprends pas pourquoi ils ne sont pas plus courants que RAID 1 + 0, surtout par rapport à RAID 1 + 0 Triple Mirroring.

Il est évident que le temps de reconstruction devient de plus en plus problématique car les capacités de conduite augmentent plus rapidement que leur performance ou leur fiabilité. On me dit que RAID 1 reconstruit plus rapidement et qu'un éventail RAID 0 de raid 1 paires évite le problème, mais sûrement un raid 5 ou 6 un éventail de raid 1 paires de raids. J'attendrais au moins qu'ils soient une alternative commune à RAID 1 + 0.

Pour 16 lecteurs de 1 ToB, voici mes calculs de la probabilité naïve de recourir à la sauvegarde, c'est-à-dire avec l'hypothèse de simplification que les lecteurs sont indépendants de probabilité même:

RAID | storage | cumulative probabilities of resorting to backup /m
 1+0 |     8TB | 0, 67, 200, 385, 590, 776, 910, 980, 1000, 1000, 1000
 1+5 |     7TB | 0,  0,   0,  15,  77, 217, 441, 702,  910, 1000, 1000
 1+6 |     6TB | 0,  0,   0,   0,   0,   7,  49, 179,  441,  776, 1000
(m = 0.001, i.e. milli.)

Si cela est correct, il est clair que RAID 1 + 6 est exceptionnellement plus fiable que RAID 1 + 0 pour une réduction de 25% de la capacité de stockage. Comme c'est le cas en général, le débit d'écriture théorique (non comptant les temps de recherche) est la capacité de stockage/la taille de la matrice × Nombre de lecteurs × Nombre d'entraînements × Écrivez le débit de la variation la plus lente dans le tableau (niveau de raid avec redondance a une amplification plus élevée d'écriture pour écritures que ne remplissez pas une bande, mais cela dépend de la taille du morceau), et le débit de lecture théorique est la somme des débits de lecture des lecteurs dans le tableau (sauf que RAID 0, RAID 5 et RAID 6 peut toujours être théoriquement limitée par Le lecteur le plus lent, le 2e plus lent et le 3ème lecteur plus lent lu respectivement). C'est-à-dire, en supposant des lecteurs identiques, ce qui serait respectivement 8 ×, 7 ×, ou 6 × de débit d'écriture maximum et 16 × un débit maximal de lecture maximale.

En outre, envisagez un raid 0 Quadruple de RAID 1 Triples, c'est-à-dire RAID 1 + 0 Triple miroir de 12 lecteurs et un RAID 6 Sextuple de RAID 1 paires, c'est-à-dire 1 + 6 sur 12 disques. Encore une fois, ce sont des disques de 1 ToT identiques. Les deux mises en page ont le même nombre de lecteurs (12), la même capacité de stockage (4 To), la même proportion de redondance (2/3), le même débit d'écriture maximum (4 ×) et le même débit de lecture maximum ( 12 ×). Voici mes calculs (jusqu'à présent):

RAID      | cumulative probabilities of resorting to backup /m
1+0 (4×3) | 0, 0, 18,  ?,   ?,   ?,   ?,   ?, 1000
1+6 (6×2) | 0, 0,  0,  0,   0,  22, 152, 515, 1000

Oui, cela peut ressembler à une overkill, mais où la miroir triplé est utilisée pour scinder un clone pour la sauvegarde, RAID 1 + 6 peut aussi bien être utilisé, simplement en gelant et en retirant 1 de chaque lecteur de tous les raids sauf 2 du raid 1 paires, et en le faisant, il a toujours une meilleure fiabilité une meilleure fiabilité lors de la dégradation de la matrice de raid 1 + 0 dégradée. Voici mes calculs pour 12 disques dégradés de 4 de cette manière:

RAID      | cumulative probabilities of resorting to backup /m
1+0 (4×3) | (0, 0, 0, 0), 0, 143, 429, 771, 1000
1+6 (6×2) | (0, 0, 0, 0), 0,   0,  71, 414, 1000

Cependant, la lecture peut être dégradée jusqu'à 6 × pendant cette période pour RAID 1 + 6, tandis que RAID 1 + 0 n'est réduit que à 8 ×. Néanmoins, si un lecteur échoue pendant que la matrice est dans cet état dégradé, la matrice RAID 1 + 6 aurait une valeur de 50 à 50 ans de rester à environ 6 × ou d'être limitée à 5 ×, alors que le tableau RAID 1 + 0 serait limité. être limité à un 4 × goulot d'étranglement. Les débits écrits doivent être assez affectés (il peut même augmenter si les entraînements prises pour la sauvegarde étaient les principaux disques les plus lents).

En fait, les deux peuvent être considérées comme "miroir à triple" car la matrice de RAID 1 + 6 dégradée est capable de fractionnement d'un groupe RAID 6 supplémentaire de 4 lecteurs. En d'autres termes, cette disposition de 12 lecteurs RAID 1 + 6 peut être divisée en 10 matrices dégradées (mais fonctionnelles) RAID 6!

Alors, c'est juste que la plupart des gens ne sont pas allés dans les mathématiques en détail? Va voir plus de raid 1 + 6 à l'avenir?

17
James Haigh

Généralement, je dirais que RAID 1 + 0 aura tendance à être plus largement utilisé que 1 + 5 ou 1 + 6 car RAID 1 + 0 est assez fiable et fournit une performance marginalement meilleure et un stockage plus utilisable.

Je pense que la plupart des gens prenaient l'échec d'une paire RAID 1 complète dans le groupe RAID 1 + 0 en tant qu'événement assez rare qui vaut la peine de rompre les sauvegardes - et probablement ne sont probablement pas trop enthousiastes pour atteindre moins de 50% de leur physique. disque comme espace utilisable.

Si vous avez besoin d'une meilleure fiabilité que RAID 1 + 0, allez-y! ..mais la plupart des gens n'en ont probablement pas besoin de cela.

17
Shane Madden

La réponse pratique se situe quelque part à l'intersection des spécifications du contrôleur RAID matérielles, des tailles de disque moyens, des facteurs de formulaire d'entraînement et des conceptions de serveur.

La plupart des contrôleurs de raid matériels sont limités dans les niveaux de raid qu'ils soutiennent. Voici les options RAID pour un contrôleur HP ProLiant Smart Array:

[raid=0|1|1adm|1+0|1+0adm|5|50|6|60]

Remarque: "L'ADM" n'est que tripler-miroir

Contrôleurs RAID LSI Support: 0, 1, 5, 6, 10, 50, and 60

Donc, ces contrôleurs ne sont que capables de RAID 50 et 60 comme des niveaux imbriqués. LSI (Née Dell PERC) et HP comprennent la majeure partie du marché de l'adaptateur de stockage de serveur d'entreprise. C'est la principale raison pour laquelle vous ne voyez pas quelque chose comme RAID 1 + 6 ou RAID 61 sur le terrain.

Au-delà de cette considération, les niveaux de raid imbriqués au-delà du RAID 10 nécessitent un nombre relativement important de disques. Compte tenu des capacités de conduite croissantes disponibles aujourd'hui (avec de 3,5 "près de SAS et de lecteurs SATA), associées au fait que de nombreux châssis de serveur sont conçus autour de 8 x 2,5 pouces de lecteur, il n'y a pas beaucoup d'une occasion de configurer physiquement RAID 1 + 6 ou RAID 61.

Les zones où vous pouvez voir quelque chose comme RAID 1 + 6 seraient gros solutions de raid logiciel de châssis. Linux MD RAID ou ZFS sont définitivement capables. Mais à ce moment-là, une défaillance d'entraînement peut être atténuée par des disques de rechange à chaud ou à froid. La fiabilité des raids n'est pas une grande quantité de problème de nos jours, à condition que vous évitez les combinaisons de niveau de raid toxique et des combinaisons matérielles (par exemple, des disques RAID 5 et 6TB). De plus, les performances de lecture et d'écriture seraient extraites par des couches de niveau de niveau et de mise en cache. Les charges de travail de stockage moyens bénéficient généralement d'une ou d'une autre.

Donc, à la fin, il semble que le besoin/la demande n'est tout simplement pas là.

16
ewwhite
  • Vous avez des retours décroissants sur la fiabilité. RAID 6 est assez peu susceptible de composer une défaillance, même sur des disques SATA Nasty SATA avec un taux de 1 sur 10 ^ 14 Uber. Sur FC/SAS Drive Votre Uber est de 1 sur 10 ^ 16 et vous obtenez également plus de performances.

  • La fiabilité du groupe RAID ne vous protège pas contre la suppression accidentelle. (Donc, vous avez besoin des sauvegardes quand même)

  • au-delà de certains niveaux de raid, vos chances d'une défaillance composée sur les disques deviennent moins fortes que la défaillance du composé de l'infrastructure de support (puissance, réseau, fuite de la climique, etc.)

  • Écrire une pénalité. Chaque écriture entrante sur votre RAID 61 déclenchera 12 IO _ Opérations (naïvement faite). RAID 6 est déjà douloureux dans les scénarios "basse niveau" en termes d'iops par TB écriture aléatoire. (Et dans un niveau supérieur, votre taux d'échec est de 100 fois de toute façon)

  • ce n'est pas une réduction de 25% 'c'est un réduction de 25%. Votre 16 To se transforme en 6 To. Donc, vous obtenez un stockage utilisable de 37,5%. Vous avez besoin de 3 fois plus de disques par capacité et 3x autant d'espace datacentre. Vous auriez probablement plus de fiabilité en faisant simplement des ensembles RAID6 plus petits. Je n'ai pas fait le nombre de chiffres, mais essayez - par exemple les sommes de RAID 6 en 3x 3 x + 2 ensembles (15 lecteurs, moins de stockage de stockage que votre RAID10). Ou faire des miroirs à 3 voies à la place.

Cela dit - il est plus commun que vous ne le pensez pour le docteur multi-sites. Je gère des matrices de stockage répliquées où j'ai des groupes raid RAID5/6/DP de manière asynchrone ou synchrone à un site de DR. (Ne soyez pas synchronisé si vous pouvez éventuellement éviter - ça a l'air bien, c'est vraiment horrible).

Avec mes NetApps, c'est un métroclustance avec certains agrégats en miroir. Avec mes vmaxes, notre installation de données à distance Symmetrix (SRDF). Et mes 3Pars font une copie à distance.

C'est cher, mais fournit des niveaux de Dr DR.

En ce qui concerne Triple Mirrors - je les ai utilisés, mais pas comme des mesures de résilience de raid directes directes, mais plutôt comme des clones complets dans le cadre d'une stratégie de sauvegarde. Synchronisez un troisième miroir, divisez-le, montez-le sur un serveur séparé et retenez-le en utilisant une infrastructure entièrement différente. Et tournez parfois le troisième miroir comme une option de récupération.

Le point que j'essaie de faire est que, dans mon expérience directe en tant qu'administrateur de stockage, dans un domaine de la broche (oui, nous remplaçons tous les jours) - nous avons dû aller à des sauvegardes pour une variété de raisons au cours des 5 dernières années, mais aucun d'entre eux n'a été raid en échec du groupe. Nous débattons les mérites relatives et le temps de récupération acceptable, le point de récupération et les fenêtres de panne. Et sous-tendre tout cela est toujours le coût de la résilience supplémentaire.

Notre réseau Tous les gommages et défaillances des médias prédisent, ainsi que des lecteurs de rechange agressivement et de test.

Même s'il y avait une mise en œuvre du raid appropriée, le coût-bénéfice n'est-il pas là. L'argent consacré à l'espace de stockage serait mieux investi dans une rétention plus longue ou un cycle de sauvegarde plus fréquent. Ou des comms plus rapides. Ou simplement des broches généralement plus rapides, car même avec des numéros de résilience identiques, la reconstruction plus rapide des pièces de rechange améliore la probabilité de défaillance du composé.

Je pense donc que je voudrais donc offrir la réponse à votre question:

Vous ne voyez pas très souvent RAID 1 + 6 et 1 + 5, car le coût des coûts ne s'empile tout simplement pas. Compte tenu d'une somme d'argent finie et étant donné besoin de mettre en œuvre une solution de sauvegarde en premier lieu, tout ce que vous faites est de passer de l'argent pour réduire votre fréquence de panne. Il y a de meilleurs moyens de dépenser cet argent.

12
Sobrique

Les systèmes modernes et avancés ne mettent pas en œuvre des formes comme celle-ci, car elles sont excessivement compliquées, totalement inutiles et contrairement à tout semblant d'efficacité.

Comme d'autres l'ont souligné, le ratio de l'espace brut à l'espace utilisable est essentiellement 3: 1. C'est essentiellement trois copies (deux copies redondantes). En raison du coût de calcul de "RAID6" (deux fois sur, s'il est reflété) et la perte d'iops résultante, c'est très inefficace. Dans ZFS, qui est très bien conçu et réglé, la solution équivalente, la capacité de la capacité serait de créer une bande de miroirs à 3 voies.

À titre d'exemple, au lieu d'un miroir de formes RAID6/RAIDZ2 à 6 voies (12 lecteurs total), ce qui serait très inefficace (pas non plus de zfs a un mécanisme à mettre en œuvre), vous auriez 4x miroirs à 3 voies (aussi 12 disques). Et au lieu de 1 conduire d'iops, vous auriez 4 disques d'iops. Surtout avec des machines virtuelles, c'est une vaste différence. La largeur de bande totale des deux formes peut être très similaire dans des lectures/écritures séquentielles, mais la bande de miroirs à 3 voies serait certainement plus réactive avec lecture/écriture aléatoire.

Pour résumer: RAID1 + 6 est généralement peu pratique, inefficace et sans surprise, et sans surprise, tout ce qui est sérieux au sujet du stockage envisagerait de développer.

Pour clarifier la disparité IOPS: avec un miroir de formes RAID6/RAIDZ2, à chaque écriture, les 12 disques doivent agir comme un. Il n'y a aucune possibilité pour la forme totale de diviser l'activité en plusieurs actions que plusieurs formes peuvent effectuer de manière indépendante. Avec une bande de miroirs à 3 voies, chaque écriture peut être quelque chose que seul l'un des 4 miroirs doit traiter. Un autre écrit d'une autre entrée ne doit pas avoir à attendre que toute la forme omnibus traite avant d'examiner d'autres actions .

3
killermist

Depuis que personne ne l'a dit directement: RAID6 La performance de l'écriture n'est pas marginalement pire. C'est horrible au-delà de la description si mis sous charge.

L'écriture séquentielle est correcte et aussi longtemps que la mise en cache, la fusion écrite, etc. est capable de le couvrir, ça va bien. Sous la charge élevée, les choses ont l'air mauvais et c'est la raison principale d'une configuration 1 + 5/6 n'est presque jamais utilisée.

2
Florian Heigl

Temps de recherche

Le problème est que, l'écriture cherche L'amplification se comporte très différemment à l'écriture débit Amplification. L'amplification minimale de débit d'écriture avec la parité se produit lorsqu'une bande totale est écrite à la fois (appelons cet adjectif 'Full-Stripe'), mais l'amplification minimale de la recherche d'écriture se produit, inversement, lorsque l'écriture complète après une recherche dans le périphérique virtuel s'insère dans le périphérique virtuel. un seul morceau. Avant d'entrer dans les détails, les relations sont beaucoup plus faciles à transmettre sous forme tabulée:

RAID | write throughput amplification factor | write seek amplification factor
     | full-stripe (e.g.) | single-chunk     | full-stripe  | single-chunk
   0 | 1           ;  1   | 1           ;  1 | n       ; 12 | 1           ;  1
   1 | n           ; 12   | n           ; 12 | n       ; 12 | n           ; 12
   5 | n/(n - 1)   ; ~1.1 | min [3, n]  ;  3 | n       ; 12 | min [3, n]  ;  3
   6 | n/(n - 2)   ;  1.2 | min [5, n]  ;  5 | n       ; 12 | min [5, n]  ;  5
*1+0 | n₁          ;  3   | n₁          ;  3 | n       ; 12 | n₁          ;  3*
 1+5 | n/(n₅ - 1)  ;  2.4 | expr₁       ;  5 | n       ; 12 | expr₁       ;  5
*1+6 | n/(n₆ - 2)  ;  3   | expr₂       ;  8 | n       ; 12 | expr₂       ;  8*
expr₁ = 2n₁ + min [1, n₅ - 2]
expr₂ = 3n₁ + min [2, n₆ - 3]

où n est le nombre total de lecteurs, N₁ est le nombre de lecteurs dans les groupes RAID 1, et N₅ et N₆ sont respectivement le nombre de groupes dans les tableaux RAID 5 ou RAID 6 respectivement. Les exemples concernent l'exemple de 12 lecteurs dans la question (les lignes correspondantes sont '*bolded* '); Exemples pour niveaux RAID 1 + 0, 1 + 5, 1 + 6 sont 4 × 3, 6 × 2, 6 × 2 respectivement.

Notez que seul le facteur d'amplification de débit en écriture complète est directement lié à la proportion de redondance. Les cas à un morceau monocouche sont plus compliqués pour ceux qui ont la parité. Ils se présentent parce que l'écriture d'un seul morceau nécessite la lecture de la sorte que la plus facile des morceaux de parité ou des autres morceaux de données, avant d'écrire les morceaux de parité avec le nouveau morceau de données. (Ils ne sont pas directement multiplicatifs car les lectures induites doivent plutôt être multipliées par le facteur d'amplification de lecture/de recherche respectif pour RAID 1, qui étant 1; voir ci-dessous.)

Malheureusement, choisir une taille de morceau qui minimise cette amplification de débit en écriture supplémentaire a l'effet secondaire de Maximizing L'amplification de la recherche d'écriture. Pour minuscules écrit avec un temps d'écriture négligeable par rapport au temps de recherche, les performances d'écriture de la bande avec une très petite taille de morceau (à la bande complète) ne sont que 1 ×, comme la mise en miroir, car elle nécessite que tous les disques cherchent à Les morceaux pour chaque écriture et le débit gagné de la mobilisation de tous ces disques est hors de propos. Il a divisé le ratio de temps d'écriture pour rechercher le temps par le nombre de lecteurs dans le tableau, mais pour de minuscules écrites, c'était déjà négligeable. Il ne serait pas logique d'utiliser une taille de morceau si petit pour faire de même de minuscules écritures être une bande complète. Pour écrit assez petit pour ressentir les effets de la recherche de la recherche, il est préférable qu'ils tiennent dans un seul morceau.

RAID | large contiguous write throughput    | concurrent tiny writes throughput
     | full-stripe    | single-chunk        | full-stripe | single-chunk
   0 | n×       ; 12× | n×          ; 12×   | 1×     ; 1× | n×          ; 12×
   1 | 1×       ;  1× | 1×          ;  1×   | 1×     ; 1× | 1×          ;  1×
   5 | (n - 1)× ; 11× | max[n/3, 1]×;  4×   | 1×     ; 1× | max[n/3, 1]×;  4×
   6 | (n - 2)× ; 10× | max[n/5, 1]×;  2.4× | 1×     ; 1× | max[n/5, 1]×;  2.4×
*1+0 | n₀×      ;  4× | n₀×         ;  4×   | 1×     ; 1× | n₀×         ;  4×  *
 1+5 | (n₅ - 1)×;  5× | expr₃×      ;  2.4× | 1×     ; 1× | expr₃×      ;  2.4×
*1+6 | (n₆ - 2)×;  4× | expr₄×      ;  1.5× | 1×     ; 1× | expr₄×      ;  1.5×*
expr₃ = n/(2n₁ + min [1, n₅ - 2]) = max [n/(2n₁ + 1), n/(2n₁ + n₅ - 2)]
expr₄ = n/(3n₁ + min [2, n₆ - 3]) = max [n/(3n₁ + 2), n/(3n₁ + n₆ - 3)]

Remarque: les colonnes de débit Middle 2 peuvent être ignorées donnée à une taille de morceau sensible plus grosse que les écrivies pour lesquelles le temps de recherche est significatif, mais suffisamment petit que de grandes écritures sont pleines de rayures. La grande taille du morceau de la 2ème colonne de débit s'apparente à des lecteurs à couvre. Une "minuscule" écrit est l'endroit où l'effet du débit est négligeable.

Avoir une taille de morceau de petite taille inappropriée augmente également l'effet de la recherche d'une amplification pour des lectures, mais pas autant et uniquement dans le cas à la bande à rayures.

RAID | read throughput amplification factor | read seek amplification factor
     | full-stripe      | single-chunk      | full-stripe (e.g.) | single-chunk
   0 | 1                | 1                 | n      to n;    12 | 1
   1 | 1                | 1                 | 1      to n;  1–12 | 1
   5 | 1                | 1                 | n - 1  to n; 11–12 | 1
   6 | 1                | 1                 | n - 2  to n; 10–12 | 1
*1+0 | 1                | 1                 | n₀     to n;  4–12 | 1           *
 1+5 | 1                | 1                 | n₅ - 1 to n;  5–12 | 1
*1+6 | 1                | 1                 | n₆ - 2 to n;  4–12 | 1           *

Remarque: le 'to N' est parce que lorsqu'il n'y a qu'un seul lecture se passe simultanément, il est théoriquement possible de mobiliser tous les lecteurs à rechercher à des endroits appropriés et à lire collectivement les données pour un maximum de réveil de lecture contiguë maximale.

RAID | large contiguous read throughput | concurrent tiny reads throughput
     | full-stripe (e.g.)| single-chunk | full-stripe         | single-chunk
   0 | n×          ; 12× | n×     ; 12× | 1×          ;  1×   | n×     ; 12×
   1 | n×          ; 12× | n×     ; 12× | n×          ; 12×   | n×     ; 12×
   5 | n×          ; 12× | n×     ; 12× | n/(n - 1)×  ; ~1.1× | n×     ; 12×
   6 | n×          ; 12× | n×     ; 12× | n/(n - 2)×  ;  1.2× | n×     ; 12×
*1+0 | n×          ; 12× | n×     ; 12× | n₁×         ;  3×   | n×     ; 12×*
 1+5 | n×          ; 12× | n×     ; 12× | n/(n₅ - 1)× ;  2.4× | n×     ; 12×
*1+6 | n×          ; 12× | n×     ; 12× | n/(n₆ - 2)× ;  3×   | n×     ; 12×*

Remarque: encore une fois, les colonnes de débit Middle 2 peuvent être ignorées donnée à une taille de morceau sensible. La colonne 3ème débit est à nouveau étroitement liée à la proportion de redondance.

Cependant, une taille de morceau suffisamment importante signifie que de minuscules lectures ne sont jamais pleines à rayures. Ainsi, étant donné une mise en œuvre efficace et une taille de morceau appropriée, la lecture de la performance doit être proportionnelle au nombre de lecteurs identiques lorsqu'il n'est pas dégradé.

Donc, vraiment, le "facteur d'amplification" est beaucoup plus compliqué que la formule de la question, où seule l'amplification du débit à rayures complète avait été prise en compte. En particulier, les performances d'écriture de 6 × 2 RAID 1 + 6 pour des écrivies simultanées suffisantes pour être liées à la recherche seront pires que celle de 4 × 3 RAID 1 + 0. Et pour de minuscules écrit, qui sont tous recherchés, la performance ne peut être que sur une 3ème partie de celle de 4 × 3 RAID 1 + 0 à absolue meilleur (c'est-à-dire une implémentation parfaite).

Ayant effacé cette question, la comparaison à 12 loisirs n'a pas de gagnant pivotant:

                                  | 4×3 RAID 1+0 | 6×2 RAID 1+6
   number of identical 1TB drives | 12           | 12
                 storage capacity | 4TB          | 4TB
            redundancy proportion | 2/3          | 2/3
large contiguous write throughput | 4×           | 4×
 large contiguous read throughput | 12×          | 12×
concurrent tiny writes throughput |*4×           | 1.5×
 concurrent tiny reads throughput | 12×          | 12×
safe number of random drive loses | 2            |*5
    12 - 1 large write throughput | 4×           | 4×
     12 - 1 large read throughput | 8×           |*11×
    12 - 1 tiny writes throughput |*4×           | ~1.42×
     12 - 1 tiny reads throughput | 8×           |*~9.33×
  can split-off a copy for backup | yes[1]       | yes[1]
                  2-site failover | yes          | yes
    2-copy large write throughput | 4×           | 4×
     2-copy large read throughput |*8×           | 6×
    2-copy tiny writes throughput |*4×           | ~1.28×
     2-copy tiny reads throughput |*8×           | 6×
   2-copy safe random drive loses | 1            |*2
2-copy - 1 large write throughput | 4×           | 4×
 2-copy - 1 large read throughput | 4×           |*5× or 6×[2]
2-copy - 1 tiny writes throughput |*4×           | ~1.46× or 1.2×[2]
 2-copy - 1 tiny reads throughput | 4×           |*3.6x or 6×[2]
can be divided into 3 full copies | yes          | yes
                  3-site failover | yes          | yes
    1-copy large write throughput | 4×           | 4×
     1-copy large read throughput | 4×           | 4×
    1-copy tiny writes throughput |*4×           | ~0.85×
     1-copy tiny reads throughput |*4×           | 2×
   1-copy safe random drive loses | 0            | 0
                       complexity |*simple       | more complex

NOTE 1: Une copie complète des données stockées est respectivement un RAID 0 Quadruple ou un réseau RAID 6 Dégradé 4/6. NOTE 2: Il y a une chance même de savoir si la défaillance du variateur s'éteint l'un des 4 paires de raids 1 dégradés ou dégrade l'une des 2 paires normales.

Néanmoins, il aurait doubler les performances de lecture d'un tableau RAID 6 de 6 lecteurs et le débit d'écrit minuscule devrait être de 25% mieux (1,5/1,2) en raison des lectures requises étant divisée entre les paires RAID 1 et RAID 6 évidemment Avoir des applications appropriées, donc dans des applications de haute disponibilité qui ont des écrivies plus grandes ou plus préoccupées par la lecture de lecture que les performances de l'écriture, peut-être là est une niche pour RAID 1 + 6 après l'après-vente. Mais ce n'est pas tout ...

Complexité

Ceci est toujours juste en théorie jusqu'à présent (principalement combinatoire ), dans la pratique, la complexité signifiera que les implémentations de RAID 1 + 6 peuvent avoir des carences qui manquent des opportunités et n'atteignent pas les résultats théoriques. RAID 6 est déjà plus complexe et la nidification ajoute un peu plus de complexité de cela.

Par exemple, il n'est pas immédiatement évident que 6 × 2 RAID 1 + 6 peuvent être résumés comme ayant 3 têtes de lecture virtuelles indépendantes capables de lire simultanément 3 de grandes lectures contiguës à 4 × débit, tout comme 4 × 3 RAID 1 + 0. Il suffit de nidifier 6 raid 1 paires dans un tableau RAID 6 à l'aide d'un raid logiciel peut ne pas être aussi élégant; La mise en œuvre peut être stupide et thrash (je n'ai pas encore testé cette hypothèse).

La complexité présente également un coût accru de développement des implémentations et des outils. Même s'il peut y avoir des applications pouvant bénéficier d'un tel imbrication, les améliorations peuvent ne pas valoir les coûts de développement.

1
James Haigh