web-dev-qa-db-fra.com

Les disques SSD sont-ils aussi fiables que les disques mécaniques (2013)?

Les disques SSD existent depuis plusieurs années maintenant. Mais la question de la fiabilité se pose toujours.

Je suppose que c'est un suivi de cette question postée il y a 4 ans, et mise à jour pour la dernière fois en 2011. C'est maintenant 2013, a beaucoup changé? Je suppose que je suis à la recherche de preuves tangibles, bien plus qu'une simple intuition. Peut-être que vous les utilisez dans votre DC. Quelle a été votre expérience?

Fiabilité des disques SSD


MISE À JOUR:

C'est maintenant 2016. Je pense que la réponse est probablement oui (dommage qu'ils coûtent quand même plus par Go).

Ce rapport donne quelques preuves:

Fiabilité Flash en production: l'attendu et l'inattend

Et quelques données intéressantes sur les entraînements mécaniques (grand public):

Backblaze: données et statistiques du disque dur

162
Matt

Cela dépendra de votre charge de travail et de la classe de lecteur que vous achetez ...

Dans mes déploiements de serveur, je n'ai pas eu de panne de SSD correctement spécifiée. C'est à travers de nombreux types différents de lecteurs, applications et charges de travail.

Rappelez-vous, tous les SSD ne sont pas identiques !!

Alors, que signifie "correctement spécifié"?

Si votre question concerne l'utilisation du SSD dans les applications d'entreprise et de serveur, beaucoup de choses ont changé au cours des dernières années depuis le question d'origine . Voici quelques éléments à considérer:

  • Identifiez votre cas d'utilisation: Il existe des disques grand public, des disques d'entreprise et même SSD d'applications industrielles renforcées . N'achetez pas un disque bon marché destiné à un bureau et exécutez-y une base de données gourmande en écriture.

  • De nombreux facteurs de forme sont disponibles: Les SSD d'aujourd'hui peuvent être trouvés dans les cartes PCIe, SATA et SAS 1,8 ", 2,5 ", 3,5" et autres variantes.

  • Utilisez le RAID pour vos serveurs: Vous ne dépendriez pas d'un seul lecteur mécanique dans une situation de serveur. Pourquoi feriez-vous de même pour un SSD?

  • Composition du lecteur: Il existe des SSD basés sur DRAM, ainsi que les types de flash MLC, eMLC et SLC. Ces derniers ont une durée de vie limitée, mais ils sont bien définis par le fabricant. par exemple. vous verrez des limites d'écriture quotidiennes comme 5 To/jour pendant 3 ans.

  • L'application Drive est importante: Certains lecteurs sont destinés à un usage général, tandis que d'autres sont optimisés en lecture ou en écriture. Les disques basés sur DRAM comme les sTec ZeusRAM et DDRDrive ne s'useront pas. Celles-ci sont idéales pour les environnements à écriture élevée et pour les disques avant plus lents. Les lecteurs MLC ont tendance à être plus grands et optimisés pour les lectures. Les disques SLC ont une meilleure durée de vie que les disques MLC, mais le MLC d'entreprise semble vraiment suffisant pour la plupart des scénarios.

  • TRIM ne semble pas avoir d'importance: Les contrôleurs RAID matériels restent ne semble pas le supporter pleinement . Et la plupart du temps j'utilise des SSD, ça va être sur une configuration matérielle RAID. Ce n'est pas quelque chose qui m'inquiète dans mes installations. Peut-être que je devrais?

  • Endurance: Le surprovisionnement est courant dans les SSD de classe serveur. Parfois, cela peut être fait au niveau du firmware, ou simplement en partitionnant le disque de la bonne façon. Les algorithmes de nivellement de l'usure sont également meilleurs dans tous les domaines. Certains disques rapportent même des statistiques de durée de vie et d'endurance. Par exemple, certains de mes SSD d'entreprise Sandisk de marque HP affichent 98% life remaining après deux ans d'utilisation.

  • Les prix ont considérablement baissé: Les SSD ont atteint le bon rapport prix/performances pour de nombreuses applications. Lorsque les performances sont vraiment nécessaires, il est rare de passer par défaut aux disques mécaniques maintenant.

  • Les réputations ont été solidifiées: par exemple. Intel est sûr mais pas performant. OCZ n'est pas fiable. Sandforce - les disques basés sont bons. sTec/STEC est extrêmement solide et est le fabricant OEM de nombreux disques RAID haut de gamme. Sandisk /Pliant est similaire. OWC propose d'excellentes solutions SSD avec une superbe garantie pour les serveurs à faible impact et pour le déploiement de postes de travail/ordinateurs portables.

  • La protection contre les pertes de puissance est importante: Regardez les disques avec des supercondensateurs/supercaps pour gérer les écritures en suspens pendant les événements d'alimentation. Certains disques améliorent les performances avec des caches intégrés ou les exploitent pour réduire l'usure. Les supercaps garantissent que ces écritures sont vidées pour un stockage stable.

  • Solutions hybrides: Les fournisseurs de contrôleurs RAID matériels offrent la possibilité d'augmenter les baies de disques standard avec des SSD pour accélérer les lectures/écritures ou servir de cache intelligent. LSI propose CacheCade et ses offres matériel/logiciel Nytro . Des solutions logicielles et au niveau du système d'exploitation existent également pour faire des choses comme fournir un cache local sur les systèmes d'application, de base de données ou d'hyperviseur. Les systèmes de fichiers avancés comme ZFS utilisent très intelligemment les SSD optimisés en lecture et en écriture ; ZFS peut être configuré pour utiliser des périphériques distincts pour la mise en cache secondaire et pour le journal d'intention, et les SSD sont souvent utilisés dans cette capacité même pour les pools de disques durs.

  • Le flash de niveau supérieur est arrivé: Les solutions flash PCIe comme FusionIO ont mûri au point où les organisations sont à l'aise de déployer des applications critiques qui compter sur l'augmentation des performances. L'appliance et les solutions SAN comme RanSan et Violin Memory sont toujours là aussi, avec plus de participants entrant dans cet espace.

enter image description here

175
ewwhite

Chaque ordinateur portable à mon travail a un SSD ou un hybride depuis 2009. Mon expérience SSD en résumé:

  • Ce que j'appellerai des disques de "1ère génération", vendus vers 2009 principalement:
    • Au cours de la première année, environ 1/4 est décédé, presque tous du syndrome de mort subite (SSD - c'est drôle, rire). Cela était très visible pour les utilisateurs finaux et ennuyeux, mais la différence de vitesse drastique rendait ce modèle de défaillance constant tolérable.
    • Après 3 ans, tous les disques sont morts (mort subite ou usure), à ​​l'exception de deux qui continuent de donner des coups de pied (en fait, des disques L2Arc dans un serveur maintenant).
  • Les disques durs de "2e génération", vendus vers 2010-2011, se distinguent de la génération précédente, car leur taux de syndrome de mort subite a chuté de façon spectaculaire. Cependant, le "problème" d'usure a continué.
    • Après la première année, la plupart des lecteurs fonctionnaient toujours. Il y a eu quelques morts subites. Un couple a échoué à cause de l'usure.
    • Après 2-3 ans, un peu plus de la moitié travaillent toujours. Le taux d'échec de la première année s'est essentiellement poursuivi.
  • Les disques "3rd Gen", vendus en 2012+ fonctionnent toujours.
    • Après la première année, tout fonctionne encore (frappe au bois).
    • Le disque le plus ancien que j'ai obtenu date de mars 2012, donc pas de données sur 2-3 ans pour le moment.

SSD Failure (Cumulative)


Mise à jour de mai 2014:
Quelques-uns des disques de "2e génération" sont tombés en panne depuis, mais environ un tiers des disques d'origine fonctionnent toujours. Tous les disques "3rd Gen" du graphique ci-dessus fonctionnent toujours (cogner sur le bois). J'ai entendu des histoires similaires d'autres personnes, mais elles portent toujours le même avertissement sur la mort sur Swift wings . vigilant gardera bien ses données sauvegardées.

59
Chris S

D'après mon expérience, le vrai problème, ce sont les contrôleurs mourants, pas la mémoire flash elle-même. J'ai installé environ 10 SSD Samsung (830, 840 [non pro]) et aucun d'entre eux n'a posé de problème jusqu'à présent. Le total opposé sont des disques avec des contrôleurs Sandforce, j'ai eu plusieurs problèmes avec les disques d'agilité OCZ, en particulier le gel à intervalles de temps irréguliers, où le disque cesse de fonctionner jusqu'à ce que j'éteigne/-sur l'ordinateur. Je peux vous donner deux conseils:

  1. Si vous avez besoin d'une haute fiabilité, choisissez un lecteur avec MLC, un meilleur flash SLC. Samsungs 840 f.e. a un flash TLC et une courte garantie, je pense que non sans raison;)

  2. Choisissez un lecteur avec un contrôleur connu pour être stable.

18
klingt.net

www.hardware.fr l'un des plus gros site français d'actualités hardware est partenaire avec www.ldlc.com l'un des plus grands revendeurs français en ligne. Ils ont accès à leurs statistiques de retour et publient deux fois par an depuis 2009 des rapports de taux d'échec (cartes mères, alimentations, RAM, cartes graphiques, HDD, SSD, ...).

Ce sont des statistiques de "mort précoce", de 6 mois à 1 an d'utilisation. Les retours directement au fabricant ne peuvent pas être comptés, mais la plupart des gens reviennent au revendeur au cours de la première année et cela ne devrait pas affecter les comparaisons entre les marques et les modèles.

D'une manière générale, les taux de défaillance des disques durs présentent moins de variations entre les marques et les modèles. La règle est une plus grande capacité> plus de plateaux> un taux d'échec plus élevé, mais rien de dramatique.

Le taux d'échec des disques SSD est globalement plus faible, mais certains modèles de disques SSD étaient vraiment mauvais avec environ 50% de retours pour les fameux modèles pendant la période que vous avez demandée (2013). Semble avoir cessé maintenant que cette fameuse marque a été achetée.

Certaines marques de SSD "optimisent" leur firmware juste pour obtenir des résultats un peu plus élevés dans les benchmarks et vous vous retrouvez parfois avec des gels, des écrans bleus, ... Cela semble aussi être moins un problème maintenant qu'il ne l'était en 2013.

Les rapports de taux d'échec sont ici:
201
2011 (1)
2011 (2)
2012 (1)
2012 (2)
2013 (1)
2013 (2)
2014 (1)
2014 (2)
2015 (1)
2015 (2)
2016 (1)
2016 (2)

11
Sacha K
0
toffitomek