web-dev-qa-db-fra.com

Combien d'espace laisser libre sur le disque dur ou SSD?

Dans la presse technologique informelle (journalistique), ainsi que dans les blogs de technologies en ligne et les forums de discussion, on trouve couramment des conseils anecdotiques pour laisser une certaine quantité d’espace libre sur les disques durs ou les disques SSD. Diverses raisons à cela sont données, ou parfois aucune raison du tout. En tant que telles, ces affirmations, bien que peut-être raisonnables en pratique, ont un aspect mythique. Par exemple:

  • Une fois que vos disques sont remplis à 80%, vous devez les considérer full , et vous devez immédiatement supprimer ou mettre à niveau des éléments. S'ils atteignent 90% plein, vous devriez considérer que votre propre pantalon est en train de brûler et réagir avec une quantité suffisante d'immédiateté pour remédier à cela. ( La source .)

  • Pour maintenir la collecte des ordures au maximum de son efficacité, le conseil traditionnel consiste à garder 20 à 30% de votre disque vide. ( La source .)

  • On m'a dit que je devrais laisser environ 20% de temps libre sur un disque dur pour de meilleures performances, qu'un disque ralentit vraiment lorsqu'il est presque plein. ( La source .)

  • Vous devez laisser de la place pour les fichiers d'échange et les fichiers temporaires. Je laisse actuellement 33% libre et vœu de ne pas obtenir moins de 10 Go d’espace libre sur le disque dur. ( La source .)

  • Je dirais généralement 15%, mais avec la taille des disques durs actuels, tant que vous en avez assez pour vos fichiers temporaires et vos fichiers d'échange, techniquement, vous êtes en sécurité. ( La source .)

  • Je recommanderais 10% de plus sous Windows, car la défragmentation ne fonctionnera pas s'il n'y a pas beaucoup de mémoire disponible sur le lecteur lorsque vous l'exécutez. ( La source .)

  • Vous voulez généralement laisser environ 10% de liberté pour éviter la fragmentation ( Source .)

  • Si votre disque est toujours plein à plus de 75 ou 80%, la mise à niveau vers un SSD plus grand mérite d'être envisagée. ( La source .)

Des recherches ont-elles déjà été effectuées, de préférence publiées dans une revue à comité de lecture, sur le pourcentage ou la quantité absolue d’espace libre requis par des combinaisons spécifiques de systèmes d’exploitation, de systèmes de fichiers et de technologies de stockage (par exemple, Magnéto vs. état solide)? (Idéalement, une telle recherche expliquerait également la raison de ne pas dépasser la quantité spécifique d'espace utilisé, par exemple pour éviter que le système ne manque de espace d'échange , ou pour éviter une perte de performance.)

Si vous êtes au courant de telles recherches, je vous serais reconnaissant de bien vouloir répondre par un lien ainsi que par un bref résumé des résultats. Merci!

107
sampablokuper

Y a-t-il eu des recherches, de préférence publiées dans une revue à comité de lecture […]?

Pour cela, il faut remonter bien plus de 20 ans, d’administration système ou autre. C'était un sujet d'actualité, du moins dans le monde des systèmes d'exploitation d'ordinateurs personnels et de stations de travail, il y a plus de 30 ans; À l'époque où le personnel de BSD développait le système de fichiers Berkeley Fast, Microsoft et IBM développaient le système de fichiers haute performance.

La littérature sur ces deux créateurs traite de la manière dont ces systèmes de fichiers ont été organisés de sorte que la stratégie d’allocation de blocs)donne de meilleures performances en essayant de rendre des blocs de fichiers consécutifs contigus. Vous pouvez trouver des discussions à ce sujet, et sur le fait que La quantité et l'emplacement de l'espace libre restant pour allouer les blocs affectent le placement des blocs et donc la performance, dans les articles contemporains sur le sujet.

La description de l'algorithme d'allocation de blocs du FFS Berkeley, par exemple, montre clairement que, s'il n'y a pas d'espace libre dans le groupe de cylindres actuel et secondaire, l'algorithme atteint ainsi le repli du quatrième niveau ("appliquer une recherche exhaustive à tous les groupes de cylindres "), les performances d’allocation des blocs de disque en souffriront, de même que la fragmentation du fichier (et donc les performances en lecture).

Ce sont ces analyses et des analyses similaires (loin d’être les seules conceptions de système de fichiers ayant pour objectif d’améliorer les politiques de mise en page des conceptions de système de fichiers de l’époque) sur lesquelles s’appuie la sagesse reçue des 30 dernières années.

Par exemple: le dicton dans le document original selon lequel les volumes FFS doivent être conservés à moins de 90%, afin de ne pas nuire aux performances, basé sur des expériences réalisées par les créateurs, peut être répété sans aucune critique même dans les livres sur les systèmes de fichiers Unix publiés ce siècle (par exemple, Pate2003 p. 216). Peu de personnes s’interrogent sur cette question, bien que Amir H. Majidimehr l’ait fait le siècle précédent, affirmant que xe n’a pratiquement pas observé d’effet notable; notamment à cause du mécanisme habituel d'Unix qui réserve ces 10% finaux à l'usage du superutilisateur, ce qui signifie qu'un disque plein à 90% est effectivement plein à 100% pour les non-superutilisateurs anyway (Majidimehr 1996, p. 68). Comme Bill Calkins, qui suggère qu'en pratique, on peut remplir jusqu'à 99%, avec les tailles de disque du 21ème siècle, avant d'observer les effets de performance d'un faible espace libre, car même 1% des disques de taille moderne suffisent pour avoir beaucoup d'espace libre non fragmenté. encore à jouer avec (Calkins2002 p. 450).

Ce dernier est un exemple de la façon dont la sagesse reçue peut devenir fausse. Il y a d'autres exemples de cela. Tout comme les mondes SCSI et ATA de adressage de bloc logiqueet enregistrement de bit zonéont plutôt jeté hors de la fenêtre) tous les calculs minutieux de latence rotationnelledans la conception du système de fichiers BSD, de sorte que la mécanique des disques SSD jette par la fenêtre l’espace libre reçu de la sagesse qui s’applique aux disques Winchester.

Avec les disques SSD, la quantité d’espace libre sur l’appareil dans son ensemble, c’est-à-dire sur tous les volumes du disque et entre eux, a un effet à la fois sur les performances et sur la durée de vie). L'idée qu'un fichier doit être stocké dans des blocs avec des adresses de bloc logiques contiguës est compromise par le fait que les disques SSD ne disposent pas de plateaux à faire pivoter ni de têtes à rechercher. Les règles changent à nouveau.

Avec les disques SSD, la quantité minimale d’espace libre recommandée est en fait de plusque les 10% traditionnels issus des expériences avec les disques Winchester et les FFS de Berkeley il y a 33 ans. Anand Lal Shimpi donne 25%, par exemple. Cette différence est aggravée. par le fait qu'il doit s'agir d'un espace libre sur tout le périphérique, alors que le chiffre de 10% correspond à au sein de chaque volume FFS, et est donc affecté par le fait que le programme de partitionnement connaît tous les éléments TRIM) espace qui n'est pas alloué à un volume de disque valide par la table de partition.

Il est également compliqué par des complexités telles que des pilotes de système de fichiers compatibles TRIM qui peuvent TRIM libérer de l’espace au sein devolumes de disque), et le fait que les fabricants de disques SSD eux-mêmes utilisent également déjàallouent divers degrés de espace réservéque n'est même pas visible hors de l'appareil (c'est-à-dire pour l'hôte) pour diverses utilisations telles que le ramassage des ordures et le nivellement d'usure.

Bibliographie

10
JdeBP

Bien que je ne puisse pas parler de "recherches" publiées par des "revues à comité de lecture" - et je ne voudrais pas avoir à me fier à celles-ci pour le travail quotidien - je peux cependant parler de la réalité de centaines de productions. serveurs sous divers systèmes d’exploitation pendant de nombreuses années:

Un disque complet réduit les performances pour trois raisons:

  • Privation d’espace libre: pensez aux fichiers temporaires, aux mises à jour, etc.
  • Dégradation du système de fichiers: la plupart des systèmes de fichiers souffrent de leur capacité à disposer les fichiers de manière optimale si l'espace disponible est insuffisant.
  • Dégradation au niveau du matériel: les disques SSD et SMR sans suffisamment d'espace libre entraînent une diminution du débit et, pire encore, une latence accrue (parfois de plusieurs ordres de grandeur).

Le premier point est trivial, d’autant plus qu’aucun système de production sensé n’utiliserait jamais l’espace de permutation dans des fichiers à expansion et à réduction dynamiques.

Le deuxième point diffère fortement entre les systèmes de fichiers et la charge de travail. Pour un système Windows avec une charge de travail mixte, un seuil de 70% s'avère tout à fait utilisable. Pour un système de fichiers Linux ext4 avec peu de fichiers, mais de grande taille (systèmes de diffusion vidéo, par exemple), cette valeur peut atteindre 90% ou plus.

Le troisième point dépend du matériel et du micrologiciel, mais en particulier les disques SSD dotés d’un contrôleur Sandforce peuvent s’effacer lorsqu’un bloc libre est effacé sur des charges de travail à écriture élevée, ce qui entraîne une augmentation du temps de latence en écriture de plusieurs milliers de pour cent. Nous laissons habituellement 25% de places libres au niveau de la partition, puis observons un taux de remplissage inférieur à 80%.

Recommandations

Je me rends compte que j'ai mentionné comment procéder pour m'assurer qu'un taux de remplissage maximal est appliqué. Quelques pensées aléatoires, aucune d’entre elles "examinées par les pairs" (rémunérées, fictives ou réelles) mais toutes issues de systèmes de production.

  • Utilisez les limites du système de fichiers: /var n'appartient pas au système de fichiers racine.
  • Surveillance, surveillance, surveillance. Utilisez une solution toute faite si elle vous convient, sinon, analysez la sortie de df -h et laissez les sonneries d’alarme sonner au cas où. Cela peut vous faire économiser 30 noyaux sur un fs racine avec des mises à jour automatiques installées et fonctionnant sans l'option de suppression automatique.
  • En premier lieu, évaluez la perturbation potentielle d'un débordement de fs par rapport au coût de son agrandissement: si vous n'êtes pas sur un périphérique intégré, vous pouvez simplement doubler ces 4G pour la racine.
49
Eugen Rieck

Y a-t-il eu des recherches ... sur le pourcentage ou la quantité absolue d'espace libre requis par des combinaisons spécifiques de systèmes d'exploitation, de systèmes de fichiers et de technologies de stockage ...?

En 20 ans d’administration système, je n’ai jamais rencontré de recherche détaillant les besoins en espace libre de diverses configurations. Je suppose que cela est dû au fait que les ordinateurs sont configurés de manière si diverse qu'il serait difficile de le faire en raison du grand nombre de configurations système possibles.

Pour déterminer la quantité d'espace libre nécessaire à un système, vous devez prendre en compte deux variables:

  1. L'espace minimum requis pour prévenir les comportements indésirables, qui peut lui-même avoir une définition fluide.

    Notez qu'il n'est pas utile de définir l'espace libre requis uniquement par cette définition, car cela équivaut à dire qu'il est prudent de conduire à 80 km/h en direction d'un mur de briques jusqu'au point même où vous entrez en collision avec celui-ci.

  2. La vitesse à laquelle la mémoire est consommée, qui impose de réserver une quantité variable d'espace supplémentaire, afin que le système ne se dégrade pas avant que l'administrateur n'ait le temps de réagir.

La combinaison spécifique du système d'exploitation, des systèmes de fichiers, de l'architecture de stockage sous-jacente, ainsi que du comportement des applications, de la configuration de la mémoire virtuelle, etc. crée tout un défi pour un utilisateur désireux de fournir des exigences définitives en matière d'espace libre.

C'est pourquoi il existe tant de "pépites" de conseils. Vous remarquerez que beaucoup d'entre eux font une recommandation concernant une configuration spécifique. Par exemple, "si votre disque SSD est sujet à des problèmes de performances lorsque vous approchez de sa capacité, restez au-dessus de 20% d'espace libre".

Comme il n’existe pas de réponse simple à cette question, la bonne approche pour identifier votre l'exigence minimale d'espace libre du système consiste à examiner les diverses recommandations génériques à la lumière de la configuration spécifique de votre système, puis à définir un seuil, à le surveiller, et être disposé à l'ajuster si nécessaire.

Ou vous pouvez simplement garder au moins 20% d'espace libre. Sauf si vous avez un volume 42 TB RAID 6 sauvegardé par une combinaison de disques SSD et disques durs traditionnels et d'un fichier d'échange pré-alloué ... (c'est une blague pour les plus sérieux).

29

Bien sûr, un disque lui-même (disque dur ou SSD) se moque bien de son pourcentage d'utilisation, à part les disques SSD pouvant effacer leur espace libre à l'avance. Les performances en lecture seront exactement les mêmes et les performances en écriture risquent d’être un peu moins bonnes sur les disques SSD. Quoi qu'il en soit, les performances en écriture ne sont pas très importantes sur un lecteur presque plein, car il n'y a pas d'espace pour écrire quoi que ce soit.

D'autre part, votre système d'exploitation, votre système de fichiers et vos applications s'attendent à ce que vous disposiez d'un espace libre disponible à tout moment. Il y a 20 ans, il était typique pour une application de vérifier combien d'espace vous aviez sur le disque avant d'essayer d'y enregistrer vos fichiers. Aujourd'hui, l'application crée fichiers temporaires sans demander votre permission et se bloque ou se comporte de manière erratique en cas d'échec.

Les systèmes de fichiers ont une attente similaire. Par exemple, NTFS réserve une grande partie de votre disque pour MFT, mais vous indique tout de même que cet espace est libre. Lorsque vous remplissez votre disque NTFS à plus de 80% de sa capacité, vous obtenez fragmentation MFT , ce qui a un impact très réel sur les performances.

De plus, le fait d’avoir de l’espace libre aide effectivement à éviter la fragmentation des fichiers classiques. Les systèmes de fichiers ont tendance à éviter fragmentation de fichiers en trouvant le bon emplacement pour chaque fichier en fonction de sa taille. Sur un disque presque plein, ils auront moins d'options et devront donc faire des choix plus pauvres.

Sous Windows, vous devez également disposer de suffisamment d'espace disque pour le fichier d'échange, qui peut augmenter si nécessaire. Si ce n'est pas le cas, vous devriez vous attendre à ce que vos applications soient fermées de force. Avoir très peu d’espace de swap peut en effet aggraver la performance.

Même si votre swap a une taille fixe, le fait de manquer complètement d’espace disque risque de bloquer votre système et/ou de le rendre non amorçable (sous Windows et Linux), car le système d’exploitation espère pouvoir écrire sur le disque pendant le démarrage. Donc, oui, 90% de l'utilisation du disque devrait vous inciter à considérer que vos peintures sont en feu. Je n'ai pas vu une seule fois des ordinateurs dont le démarrage correct a échoué jusqu'à la suppression des derniers téléchargements pour donner un peu d'espace disque au système d'exploitation.

11
Dmitry Grigoryev

Les "règles" varient en fonction de vos besoins. Et il existe des cas particuliers, tels que, par exemple, ZFS: "Avec une capacité de 90%, ZFS passe de l'optimisation basée sur la performance à l'optimisation spatiale, ce qui a des conséquences énormes en termes de performances.". Oui, il s’agit d’un design aspect de ZFS ... non dérivé d’une observation ou d’une preuve anecdotique. Évidemment, cela pose moins de problèmes si votre pool de stockage ZFS est constitué uniquement de disques SSD. Cependant, même avec des disques en rotation, vous pouvez atteindre 99% ou 100% lorsque vous vous occupez de stockage statique et que vous n'avez pas besoin de performances exceptionnelles - par exemple, votre collection de films préférée de tous les temps, qui ne change jamais et où la sécurité est la priorité 1.

Ensuite, btrfs - un cas extrême: lorsque l’espace libre devient trop bas (quelques Mo), vous pouvez atteindre le point de non-retour. Non, la suppression de fichiers n'est pas une option, car vous ne pouvez pas. Il n'y a tout simplement pas assez d'espace pour supprimer des fichiers. btrfs est un système de fichiers COW (copie sur écriture) et vous pouvez atteindre un point où vous ne pouvez plus modifier les métadonnées. À ce stade, vous pouvez toujours ajouter du stockage supplémentaire à votre système de fichiers (une clé USB peut fonctionner), puis supprimer des fichiers du système de fichiers étendu, puis réduire le système de fichiers et supprimer à nouveau le stockage supplémentaire). Encore une fois, ceci est un aspect causé par le design du système de fichiers.

Les personnes qui peuvent vous donner des "données réelles (sérieuses)" sont probablement celles qui traitent du "stockage réel (sérieux)". La réponse (excellente) de Twisty mentionne des baies hybrides (comprenant des quantités énormes de disques à rotation lente bon marché, de nombreux disques à rotation rapide, de nombreux disques SSD, etc.) qui sont exploités dans un environnement d'entreprise où le principal facteur limitant est la vitesse à laquelle l'administrateur est capable de commander des mises à niveau. Le passage de 16T à 35T peut prendre 6 mois… vous vous retrouvez donc avec des rapports sérieusement sauvegardés qui suggèrent de régler votre alarme à 50%.

8
Klaws

Pour les disques SSD, il doit rester un peu d’espace car le taux de réécriture augmente alors et affecte négativement les performances d’écriture du disque. La valeur de 80% de saturation est probablement une valeur sûre pour tous les disques SSD. Certains modèles récents peuvent fonctionner correctement, même avec une capacité occupée comprise entre 90 et 95%.

https://www.howtogeek.com/165542/why-solid-state-drives-slow-down-as-you-fill-them-up/

8
Jaroslav Kucera

De très nombreux facteurs contribuent au résultat en fonction de quantités très spécifiques à chaque configuration. Donc, il n'y a pas de nombre absolu, cela ne peut être mesuré qu'en fonction de ces paramètres. (C'est probablement la raison pour laquelle d'autres utilisateurs ne signalent aucune recherche spécifique sur ce sujet - trop de variables pour compiler quelque chose de concluant.)

  • Matériel

    • Le disque dur a tous ses secteurs alloués à tout moment. Donc, peu importe le nombre d'entre elles contenant les données utilisateur actuelles. (Pour le contrôleur, tous les secteurs contiennent des données à tout moment, il les lit et les écrase comme indiqué.)
    • Le contrôleur de SSD, d’autre part, (dé) alloue ses secteurs de manière dynamique, comme un système de fichiers. Ce qui rend ce travail plus difficile à des usages plus élevés. La difficulté et l’impact sur les performances observables dépendent:
      • Les performances du contrôleur et la qualité des algorithmes
      • Écrire la charge
      • En une lettre, charge globale (pour donner au contrôleur le temps de ramasser les ordures)
      • Surprovision de l'espace (certains fabricants laissent même le client le choisir à l'avance ou le modifie de manière dynamique)
  • Système de fichiers

    • Différents systèmes de fichiers sont conçus pour différentes charges et exigences de traitement de l'hôte. Cela peut être modifié dans une certaine mesure par les paramètres de format.
    • Les performances d'écriture de FS sont une fonction de l'espace libre et de la fragmentation, les performances de lecture de la fragmentation uniquement. Il se dégrade progressivement depuis le début. La question est donc de savoir où se situe votre seuil de tolérance.
  • Type de charge

    • La charge d'écriture insiste sur la recherche et l'accès rapides à de nouveaux blocs libres
    • Une charge de lecture importante met l'accent sur la consolidation des données associées afin qu'elles puissent être lues avec moins de temps système
4
ivan_pozdeev

Cela dépend de l'utilisation prévue du lecteur, mais en général, 20% à 15% d'espace libre est une bonne réponse pour les disques en rotation, et 10% ou plus est bon pour les SSD.

S'il s'agit du lecteur principal de l'ordinateur et que les fichiers peuvent être déplacés, un espace libre de 20% devrait permettre d'éviter des ralentissements importants. Cela laissera suffisamment d'espace libre sur tout le lecteur pour que les données soient déplacées et copiées selon les besoins. Une unité en rotation fonctionnera mieux lorsque les emplacements libres sont plus proches des données d'origine, tandis que l'emplacement physique n'affecte pas les performances quotidiennes d'un disque SSD. Ainsi, le disque en rotation devrait avoir plus d'espace libre pour des raisons purement de performance. Sur le SSD, la réduction de l'espace libre réduira la longévité du disque, mais ne réduira pas les performances. Les disques SSD essaient de stocker des données temporaires et des fichiers de téléchargement aléatoires dans les emplacements les moins utilisés afin d’équilibrer l’utilisation des cellules sur l’ensemble du lecteur; sinon, une partie du disque vieillira beaucoup plus rapidement que le reste. Certains SSD plus récents peuvent réorganiser intelligemment les fichiers afin que l'espace vide soit déplacé, mais les lecteurs plus anciens peuvent ne pas le faire.

S'il s'agit d'un support ou d'un lecteur de stockage à long terme, 5% à 10% de la disponibilité devrait suffire, et 10% serait préférable s'il s'agit d'un disque en rotation. Vous n'avez pas besoin d'autant d'espace libre, car ce disque nécessitera rarement le déplacement des données. Les performances ne sont donc pas aussi importantes. L'espace libre est principalement utile pour permettre aux secteurs défectueux d'être supprimés et remplacés, et pour permettre aux fichiers d'être plus contigus.

Je ne pousserais aucun lecteur au-delà de 95% de sa capacité pendant plus d'une journée, à moins d'une très bonne raison.

3
user3685427

Une chose à considérer avec les entraînements mécaniques est que le débit de la périphérie externe est supérieur à celui de l'intérieur. En effet, il y a plus de secteurs par tour pour la plus grande circonférence de l'extérieur.

À mesure que le disque atteint sa capacité maximale, les performances diminuent car seuls les secteurs internes plus lents seront disponibles.

Pour une analyse plus approfondie, voir https://superuser.com/a/643634

3
Wes Toleman