web-dev-qa-db-fra.com

Comment les iops de stockage changent-ils en réponse à la capacité de disque?

Toutes les autres choses étant égales, comment changerait une performance IOPS de la matrice de stockage si on utilisait des disques plus importants.

Par exemple, prenez un tableau avec 10 disques de 100 Go de 100 Go.

Mesurer iops pour les écrivies séquentielles de 256kb (ou n'importe quel IOPS métrique)

Supposons que les iops mesurés résultants sont de 1000 iops.

Changez le tableau pour un avec des disques de 10 x 200 Go. Format avec la même configuration RAID, la même taille de bloc, etc.

On s'attendrait-il à ce que les iops restent les mêmes, augmentent ou diminuent? Le changement serait-il grossièrement linéaire? I.e. Augmentation de 2x ou de diminution de 2x (comme j'ai augmenté la capacité de disque de 2x)

Répétez ces questions avec 10 disques de 10 x 50 Go.

éditer: plus de contexte

Cette question a entraîné une conversation entre mon équipe Sysadmin qui n'est pas bien versé dans tout ce qui concerne le stockage. (À l'aise avec de nombreux aspects du stockage, mais pas les détails de la gestion d'un SAN ou autre). Nous recevons une grande pile de nouveaux plateaux NetApp qui ont une capacité de disque supérieure de disque par disque - double capacité - que nos plateaux existants. Le commentaire est venu que les iops des nouveaux plateaux seraient plus bas parce que les disques étaient plus grands. Ensuite, une analogie de voiture est venue pour expliquer cela. Aucune autre commentaire s'est assise bien avec moi, alors je voulais le fuir à l'équipe, c'est-à-dire la pile-bourse.

L'analogie de la voiture était quelque chose à propos de deux voitures, avec une accélération différente, la même vitesse maximale et le quart de mile. Puis changez la distance à un demi-mile. En fait, je ne me souviens pas de l'analogie exacte, mais depuis que j'ai trouvé un autre sur l'interwebz qui était similaire, je pensais que c'était probablement une analogie commune des iops.

À certains égards, la réponse réelle à la question ne compte pas beaucoup pour moi, car nous n'utilisons pas ces informations pour évaluer un achat. Mais nous avons besoin d'évaluer le meilleur moyen de fixer les plateaux à une tête existante et de meilleure façon de sculpter des agrégats et des volumes.

12
JDS

Pour répondre à votre question directement - toutes les autres choses étant égales = pas de changement que ce soit lorsque GB change.

Vous ne mesurez pas les iops avec GB. Vous utilisez le temps de recherche et la latence.

Je pourrais ré-écrire ici, mais ces exemples ci-dessous font tout cela déjà et je le répéterais simplement:

https: //ryanfrantz.com/posts/calculant-disk-iops.html

http: //www.big-data-storage.co.uk/how-a-calculez-iops/

http: //www.wmarow.com/strcalc/

http: //www.thecloudcalculator.com/calculators/disk-raid-and-iops.html

8
Ian Macintosh

Je sais que c'est probablement une question hypothétique ... mais le monde informatique ne fonctionne vraiment pas de cette façon. Il existe des contraintes réalistes à considérer, plus d'autres choses qui can Influence Iops ...

  • Les disques de 50 Go et 100 Go n'existent pas vraiment. Pensez plus: 72, 146, 300, 450, 600, 900, 1200GB Dans les disques d'entreprise et 500, 1000, 2000, 3000, 4000, 6000GB dans le support de stockage en vrac proche/médiane.

  • Il y a tellement d'abstraction dans le stockage moderne; La mise en cache de disque, la mise en cache de contrôleur, le déchargement SSD, etc. Les différences seraient difficiles à discerner.

  • Vous avez des facteurs de formulaire de conduite différents, des interfaces et des vitesses de rotation à prendre en compte. Les disques SATA ont un profil de performance différent de SAS ou proche de SAS . 7,200RPM Les disques se comportent différemment de 10 000 tr/min ou 15 000 tr/min. Et la disponibilité des différentes vitesses de rotation est limitée à certaines capacités.

  • Disposition du contrôleur physique. SAS Dégénérateurs, les contrôleurs RAID/SAS peuvent influencer les iops, en fonction de la mise en page de disque, des taux de sursouscription, que la connectivité est interne au serveur ou dans une enceinte externe. Un grand nombre de disques SATA fonctionne mal sur les expresseurs et pendant les conditions d'erreur d'entraînement .

  • Une partie de cela peut être influencée par la fragmentation, la capacité utilisée sur le tableau de disques.

  • Avez-vous déjà entendu parler de courte caresson ?

  • Logiciels contre le raid matériel, la préfettration, le profilage adaptatif ...

Qu'est-ce qui vous mène à croire que la capacité aurait tout Impact sur la performance en premier lieu? Pouvez-vous fournir plus de contexte?

Modifier:

Si le type de disque, le facteur de forme, l'interface et la capacité utilisées sont les mêmes, il ne devrait y avoir aucune différence appréciable dans les iops. Disons que vous alliez de 300 Go à 600 Go d'entreprise SAS 10k disques. Avec le même nombre de broches, vous ne devriez voir aucune différence de performance ...

Toutefois, si les tablettes NetApp Disk vous mentionnent utilisent 6 Gbps ou 12 Gbbps SAS Backplanes par rapport à un héritage 3GBPS, vous pouvez voir un changement de débit dans un équipement plus récent.

11
ewwhite

Un endroit où il est une relation directe entre la taille du disque et les iops est dans le Amazon Aws Cloud et d'autres "services nuageux" . Deux types de services AWS ( STORE DE BLOQUI NASTIC et Service de base de données relationnelle ) Fournissez des IOPS plus élevés pour des tailles de disque plus importantes.

Notez que ceci est une restriction artificielle placée par Amazon sur leurs services. Il n'y a pas de raison liée au matériel pour que cela soit le cas. Cependant, j'ai vu Types Devops qui ne sont pas familiarisés avec du matériel non construit en croyant que cette restriction est appropriée également pour les systèmes de bureau et similaires. La relation taille/iops de disque est une restriction de marketing en nuage, pas une restriction matérielle.

9
dotancohen

Je tiens à souligner que IOPS ne sont pas une grande mesure de la vitesse sur l'écriture séquentielle, mais LÂCHE juste avec elle.

Je soupçonne que la cherchent et les temps d'écriture des têtes de disque est assez constante en dépit de la taille des disques. Il y a 20 ans, nous nous sommes tous en utilisant des disques de 60 Go avec (à peu près - certainement pas de façon linéaire) les mêmes vitesses de lecture/écriture.

Je fais une supposition, mais je ne pense pas que la densité du disque se rapporte de façon linéaire avec les performances du disque.

Par exemple, prenez un tableau avec 10 disques de 100 Go de 100 Go.

Mesurer iops pour les écrivies séquentielles de 256kb (ou n'importe quel IOPS métrique)

Supposons que les iops mesurés résultants sont de 1000 iops.

D'accord

Changez le tableau pour un avec des disques de 10 x 200 Go. Format avec la même configuration RAID, la même taille de bloc, etc.

On s'attendrait-il à ce que les iops restent les mêmes, augmentent ou diminuent?

Probablement rester à peu près équivalente à un autre.

Le changement serait-il grossièrement linéaire?

L'histoire des médias filature me dit qu'il n'y a probablement pas de relation.

Répétez ces questions avec 10 disques X 50 Go

Encore une fois, à peu près équivalent.

Votre vitesse, dans tous ces cas, provient du fait que le RAID agit comme un seul disque avec dix têtes d'écriture, de sorte que vous pouvez envoyer 1/10ème du travail en parallèle à chaque disque.

Alors que je n'ai pas de chiffres précis à vous montrer, mon expérience me dit que l'augmentation de vos performances disques ne sont pas tout à fait aussi simple que d'obtenir une plus grande capacité.

Malgré ce que les gens du marketing vous dire est l'innovation, avant le début du pas cher (er) des disques d'état solide, il y a eu peu de développement significatif dans l'exercice de rotation des médias au cours des 20 dernières années, theres probablement seulement donc que vous pouvez obtenir sur Rust et seulement si vite nous pouvons obtenir nos modèles actuels de têtes de disque à partir.

4
Matthew Ife

Les performances ajoutées aux échelles de stockage avec chaque broche ajoutée. La vitesse de rotation du lecteur est le facteur le plus important, l'ajout d'un lecteur de tr/min de 10K donnera plus de performances (en termes d'IO/S en aléatoire IO ou MB/S en streaming io) qu'un 7.2k RPM lecteur. La taille du lecteur n'a pratiquement aucun effet.

Les gens disent que les petits disques vont plus vite simplement parce que vous avez besoin de plus de broches par tuberculose utilisable. L'augmentation de la taille du lecteur de ces broches ne diminuera pas les performances, mais cela vous permettra d'adapter davantage de données sur les disques, ce qui peut entraîner une charge de travail accrue.

3
Basil

Si vous supposez que tout le reste est égal, les caractéristiques de performance des disques de grande capacité ne changent pas beaucoup. Un lecteur FC de 10K RPM a des caractéristiques très similaires, qu'il s'agisse de 300 Go ou de 3 ToB. Les plateaux tournent au même rythme et les têtes cherchent à la même vitesse.

Un débit soutenu de même - pas beaucoup de différence. C'est la racine de nombreux problèmes de performance cependant, comme dans de nombreux cas, les gens achètent des téraoctets, ils n'achètent pas IOPS ou MB/SEC.

Et cela prendra 10 fois de temps pour reconstruire/copier un lecteur de 3 To sous forme de lecteur de 300 Go.

Nous avons en fait avoir dû examiner une surcapacité substantielle de projets de stockage en conséquence - les tailles de conduite sont toujours en croissance, mais leur capacité de performance n'est pas beaucoup. Donc, dans au moins un cas, nous avons acheté ~ 400TB de stockage pour remplir une exigence de 100 To, car nous avons besoin de la broche.

2
Sobrique

Si vous faites pivoter des disques (non SSD), tout le reste étant égal, la vitesse de transfert est plus élevée si vous utilisez les pistes extérieures du disque. Cela se produirait automatiquement si vous utilisez un disque partiellement rempli. Dans le même temps, si un disque n'est que partiellement rempli, votre mouvement de tête moyen serait de moins et que le nombre de mouvements de la tête serait moins parce qu'il ya plus de données par piste.

C'est vrai que vous utilisiez un seul disque ou un lecteur RAID.

Maintenant, si vous comparez des disques de 100 Go et de 2000 Go, vous pouvez être sûr que tout le reste est non égal. Mais si le même fabricant offre des disques 500 Go, 1 ToB, 1,5 To et 2 To avec un, deux, trois et quatre platiers, tout le reste est probablement égal, et 10 x 500 Go seront plus lents que 10 x 2 To pour stocker 4 To de données (Il n'y aura aucune différence si vous stockez 100 Go uniquement, car les 500 Go seront également presque vides).

Mais pour les entraînements raids, vous ne serez pas tellement limité par la vitesse de transfert, mais par la latence de rotation. Donc, plus de régimes plus élevés seront plus importants. Et vous trouverez souvent des tours plus élevés avec une capacité inférieure. D'autre part, si vous allez avec des tours de vitesse élevée/faible capacité, vous pourriez également consulter les disques SSD.

0
gnasher729