web-dev-qa-db-fra.com

Les disques "Enterprise" peuvent-ils être remplacés en toute sécurité par près de la ligne médiane dans certaines situations?

Lorsque vous spécifiez des serveurs, comme (je supposerais) de nombreux ingénieurs qui ne sont pas des experts en stockés, je vais généralement la jouer en sécurité (et peut-être être un esclave au marketing) en normalisant au moins 10K SAS Les entraînements (et sont donc "Enterprise"-grade avec un cycle de service 24x7, etc.) pour les données "système" (généralement des systèmes d'exploitation et parfois des applications) et réservent l'utilisation de 7,2K et des lecteurs de la ligne/proche de la ligne de stockage des données non système où la performance n'est pas un facteur important. Tout cela suppose que les disques de 2,5 "(SFF) (SFF), sous forme de disques de 3,5" (LFF) ne sont vraiment pertinents que pour des exigences de haute capacité des IOPS.

Dans des situations où il n'y a pas de quantité massive de données non système, je le placerai généralement sur les mêmes disques/matrices que les données système, ce qui signifie que le serveur n'a que 10k SAS (généralement un "Un grand raid10" type de configuration ces jours-ci). Ce n'est que si la taille des données non système est significative, je envisagez généralement de la mettre sur un tableau séparé de 7,2k disques de mi-ligne pour maintenir le coût/le baissier.

Cela m'a amené à me demander: dans certaines situations, que ces disques de 10 km de la matrice RAID10 ont-ils été remplacés par des disques de 7,2 km sans conséquences négatives significatives? En d'autres termes, suis-je parfois trop spécifié (et en gardant les fournisseurs de quincaillerie heureux) en tenant compte d'un minimum de disques de grade de "entreprise" de 10k, ou y a-t-il une bonne raison de toujours rester au minimum?

Par exemple, prenez un serveur qui sert d'hyperviseur avec un couple de VMS pour une petite entreprise typique (disons 50 utilisateurs). La société a des schémas d'E/S moyen sans exigences particulières. Typique 9-5, Mon-Vend Bureau, avec des sauvegardes courantes pendant quelques heures par nuit. Le VMS pourrait peut-être être un DC et un serveur de fichiers/d'impression/app. Le serveur dispose d'un tableau RAID10 avec 6 disques pour stocker toutes les données (données et données non système). À mon œil non experte, il semble que les disques intermédiaires à mi-glissez peuvent bien faire de bien. Prendre des disques HP comme exemple:

  • Charge de travail: Les disques de la ligne médiane sont notés pour une charge de travail de moins de 40%. Avec le bureau seulement ouvert pendant 9 heures par jour et les E/S moyen pendant cette période peu susceptible d'être n'importe où près du maximum, il semble que la charge de travail improbable atteignait plus de 40%. Même avec quelques heures d'E/S intenses de nuit pour les sauvegardes, je suppose que cela serait toujours inférieur à 40%
  • Vitesse: bien que les disques ne soient que 7,2k, la performance est améliorée en l'étalant sur six disques

Donc, ma question: est-elle raisonnable de coller un minimum de 10k SAS _ _ lecteurs, ou de 7,2 000 disques de la ligne médiane/proche des disques ne sont pas plus adéquats dans de nombreuses situations? Si oui, comment allez-y lorsque la ligne est et évitez d'être un esclave à l'ignorance en la jouant en sécurité?

Mon expérience est principalement avec les serveurs HP, de sorte que ce qui précède peut-être un peu une inclinaison de HP, mais je suppose que les principes sont indépendants assez vendeurs.

22
dbr

Il y a une intersection intéressante de la conception du serveur, de la technologie du disque et de l'économie ici:

Voir aussi: Pourquoi les disques de gros facteur de forme (LFF) sont toujours assez répandus?

  • Le déplacement vers des serveurs denses en rack et de petits facteurs de forme. Par exemple. Vous ne voyez plus de nombreuses offres de tour des principaux fabricants, tandis que les lignes de produits plus denses bénéficient de révisions plus fréquentes et ont plus d'options/disponibilité.
  • Stagnation dans le développement de disque de 3,5 "d'entreprise (15k) - 600 Go 15k 3,5" est à peu près aussi grande que possible.
  • Avancement lent dans les capacités de disque de 2,5 "à proximité (7.2K) - 2 To est la plus grande que vous y trouverez.
  • Disponibilité accrue et prix inférieure des SSD de haute capacité.
  • Consolidation de stockage sur le stockage partagé. Les charges de travail à serveur unique nécessitant une capacité élevée peuvent parfois être desservies via SAN.
  • La maturation des matrices de stockage entièrement flash et hybride, ainsi que l'afflux de startups de stockage.

Ce qui précède est pourquoi vous trouverez généralement des fabricants se concentrant sur les serveurs 1U/2U avec des baies de disque de disque de 8-24 2,5 ".

Les disques de 3,5 "sont destinés à des cas d'utilisation de haute capacité à faible capacité (2TB +). Ils sont meilleurs pour les boîtiers de stockage externes ou SAN Nombre de stockage par une certaine forme de mise en cache. Dans les vitesses de RPM d'entreprise 15K, ils sont seulement Disponible jusqu'à 600 Go.

2.5 "Les disques de filature de RPM 10K sont destinés aux besoins des iPOP plus élevés et sont généralement disponibles jusqu'à une capacité de 1,8 To.

2.5 "7.2k RPM Les disques de filature sont un mauvais appel, car ils n'offrent ni la capacité, la performance, la longévité ni les avantages de prix. Par exemple, le coût d'un lecteur de 900 Go SAS 10K est très proche de celui d'une tecque de 1To 7,2k. SAS. Compte tenu de la faible différence de prix, le lecteur de 900 Go est le meilleur achat. Dans l'exemple de 1.8TB 10K SAS Versus 2.0TB 7.2K SAS Les prix sont également très proches. Les garanties sont âgées de 3 ans et d'une année, respectivement.

Ainsi, pour les serveurs et le stockage interne de 2,5 ", utilisez SSD ou 10K. Si vous avez besoin de besoins en capacité et que vous avez des baies de lecteur de 3,5" disponibles en interne ou en externe, utilisez 7,2k RPM.

Pour les cas d'utilisation que vous avez décrits, vous n'avez pas trop configuré les serveurs. S'ils ont des baies de lecteur de 2,5 ", vous devriez vraiment utiliser 10k SAS _ ou SSD. Les disques de la ligne médiane sont perdés sur la performance, la capacité, ont un de manière significative de la garantie plus courte et ne économisera pas beaucoup sur le coût.

25
ewwhite

Il y a au moins quelques points qui pourrait causer des problèmes avec certains types de conduite:

  • Les lecteurs qui ne sont pas destinés à faire face à la charge de vibration d'un châssis ayant de nombreux disques (problème improbable avec tout entraînement spécifié comme RAID/NAS-Capable))

  • Le micrologiciel qui n'autorise pas le carton, ni a besoin de reconfiguration manuelle manuelle du lecteur pour l'activer (Idem)

  • Les lecteurs qui n'ont jamais été testés avec le contrôleur RAID utilisé et peuvent avoir des bugs non reconnus qui se présentent dans une telle configuration

  • Les caches d'écriture de lecteur interne qui se comportent d'une manière (écriture physique est hors de commande ou très retardée) qui provoque une grande confusion en cas d'arrêt durement (le contrôleur RAID doit être configuré pour les forcer. Problème potentiel si le microprogramme devrait toujours ignorer cela. Voir les lecteurs non testés :)

  • Le lecteur peut effectuer des routines d'entretien internes occasionnellement, ce qui pourrait faire se conduire lentement ou répondre avec suffisamment de retard, pour que le contrôleur RAID pense qu'il a échoué (lié au Tler)

  • SATA en général, comme il est habituellement mis en œuvre, a moins de garanties comparées à SAS sur un lecteur avec des électrons complètement abattus ou suspendus tout sur le contrôleur (pas une théorique Risque, certains combinaisons de marques de contrôleur + contrôleur d'aiment ce mode de défaillance).

5
rackandboneman

[~ # ~] énorme [~ # ~ ~] problème:

(Peut-être un peu Teeny hors-sujet - mais I'ts imporant !)

Lorsque vous faites affaire avec des disques SSD - (comme cela est souvent le cas, ou peut être le cas ou la tentation) - beaucoup de disques SSD ont un problème désagréable où ils ne peuvent pas récupérer toujours de pannes de courant spontanées!

Ceci est un problème minuscule avec lecteurs de disque dur. Les disques durs ont généralement suffisamment de capacité pour alimenter leur logique et suffisamment angular _ élan pour transporter les plateaux en terminant l'écriture d'un bloc de 512 octets - dans le cas où la puissance est perdue à mi-écriture. Une fois dans un rare alors que, cette volonté non travail, ce qui dans ce qu'on appelle une " écriture déchirée " - où un seul bloc peut être partiellement écrite. L'écriture partielle (Albiet Rare) provoquera une défaillance de la somme de contrôle sur le bloc - c'est-à-dire que le bloc individuel sera mauvais. Cela peut généralement être détecté comme mauvais par le circuit de disque lui-même et corrigé par le contrôleur RAID en amont.

Les SSD sont un animal différent. L'implémentation habituellement quelque chose appelé "nivellement de l'usure" - où ils n'écrivent pas simplement "Block X" à un emplacement physique pour "Block X" comme un disque dur. , Ils tentent plutôt d'écrire différence endroits sur le support flash - et ils tentent d'agréger ou Intégrant des composants (en utilisant un peu de mise en mémoire tampon). L'écriture aux différents endroits implique de conserver une "carte" de la situation écrite, qui est également tamponnée et écrite de manière à réduire le nivellement de l'usure. Une partie du nivellement de l'usure peut même impliquer des données en mouvement déjà sur l'appareil et n'a même pas été récemment écrite.

Ce problème est que lorsque le SSD perd la puissance - il a beaucoup de données dans la mémoire (non incliné), il dispose de certaines données qui ont été écrites à des emplacements différents/modifiés - et il a ces cartes dans sa propre mémoire qui doit être rincé pour donner un sens de la structure de toutes les données sur l'appareil.

[~ # ~] beaucoup [~ # ~] disques SSD ne sont pas la logique ou un circuit pour être en mesure de garder leurs contrôleurs et en vie assez longtemps sur la puissance spontanée-out à tous en toute sécurité flush ces données à clignoter avant de mourir. Cela ne signifie pas seulement que ce que vous avez écrit un bloc pourrait maintenant être en jeprody - mais d'autres blocs - même tous les blocs sur le dispositif pourrait être en difficulté. De nombreux appareils ont aussi des problèmes où ils ne perdent pas seulement tous les données sur l'appareil, mais le dispositif lui-même devient murées, et inutilisable .

C'est toute la vraie théorie - mais (travaillant dans l'industrie de stockage) - je/nous avons vu cela arriver beaucoup trop de fois de trop de périphériques - y compris dans certains de nos propres ordinateurs portables personnels!

De nombreux fournisseurs ont discuté de faire " qualité " entreprise SSD où le module complémentaire spécifiquement des dispositifs ( " super-caps ") et d'autres circuits pour permettre une " chasse d'eau " propre - mais il est très très difficile de trouver un dispositif qui spécifiquement indique une partie de feuille de données qu'elle dispose de suffisamment explicite, testé une protection contre de tels événements et protéger contre de tels événements.

Il est évident que si vous achetez un " baie de stockage haut de gamme " d'un fournisseur de premier plan qui utilise la technologie flash, soit leurs lecteurs - ou leur système en entier a été conçu avec tout cela en compte. Assurez-vous qu'il a!

Le problème en ce qui concerne votre question est la suivante: Si vous avez une matrice RAID - et plusieurs des disques sont les disques SSD " mauvais " sans cette protection - si vous obtenez une " panne de courant spontanée " - vous risquez de perdre [~ # ~] tous les [~ # ~] les données sur [~ # ~] multiples [~ # ~] disques rendu reconstruction RAID impossible.

"Mais j'utilise un onduleur"

Il est également généralement important de noter que la "panne de courant spontanée" peut inclure des situations telles que BSOD et les serrures/accidents de noyau/panique - où vous n'avez pas le choix de récupérer pour tirer la fiche du système.

4
Brad