web-dev-qa-db-fra.com

Configuration ZFS pour débutant avec les lecteurs de tailles différentes

Désolé pour les questions de noobie, j'ai fait toutes sortes de recherches sur Google pour créer mon raid ZFS, mais je n'arrive pas à trouver les liens corrects pour les réponses que je cherche.

C'est ma première tentative de RAID, et d'après tout ce que j'ai lu, il semble que zfs soit la meilleure solution.

  1. Que se passe-t-il si je dois changer le matériel sous-jacent derrière le pool zfs? Comme le mobo/processeur, que se passe-t-il si cela meure dans moi dans un an ou deux; puis-je porter ma piscine zfs en quelque sorte?
  2. J'ai un assez grand nombre de disques de tailles différentes et j'essaie de tirer le maximum d'espace de stockage avec la redondance. Quelle est la meilleure configuration pour cette configuration, et combien d'espace vais-je perdre en utilisant ces disques de différentes tailles. Je ne crée pas ceci pour des besoins de vitesse, je veux juste un serveur de fichiers pour plusieurs HTPC. Mes lecteurs actuellement disponibles pour cela sont:
    • 1x disque dur 'hybride' de 500 Go
    • 1x lecteur 1 To
    • 1x 3 To Drive
    • 1x lecteur de 4 To (sera ajouté au pool ultérieurement, contenant actuellement toutes les données des lecteurs répertoriés ci-dessus)
  3. L'ajout du disque 4 To à la piscine constituera-t-il un problème de quelque nature que ce soit?
  4. Toute recommandation sur un système d'exploitation Linux d'exécuter tout cela, et dois-je utiliser un lecteur distinct pour le système d'exploitation? Je connais Ubuntu, RHEL et OpenSUSE/SLES.

Toute aide est très appréciée, je continue à lire à ce sujet, juste beaucoup à prendre en même temps, tout lien sur les points de départ serait également très utile.

24
ivandov

Que se passe-t-il si je dois changer le matériel sous-jacent derrière le pool zfs? Comme le mobo/processeur, que se passe-t-il si cela meure dans moi dans un an ou deux; puis-je porter ma piscine zfs en quelque sorte?

Un pool ZFS n'est pas dépendant du matériel. Assurez-vous simplement que votre HBA (Host Bus Adapter) ne fait pas quelque chose de similaire au cryptage de vos données au niveau matériel. ZFS fonctionne mieux avec un HBA comme un LSI LSI 9211-8i ou un IBM m1015 croisé pour utiliser le microprogramme 9211-8i. souffler la carte RAID "matériel".

J'ai un assez grand nombre de disques de tailles différentes et j'essaie de tirer le maximum d'espace de stockage avec la redondance. Quelle est la meilleure configuration pour cette configuration, et combien d'espace vais-je perdre en utilisant ces disques de différentes tailles. Je ne crée pas ceci pour des besoins de vitesse, je veux juste un serveur de fichiers pour plusieurs HTPC. Mes lecteurs actuellement disponibles sont les suivants: 1x lecteur 'hybride' de 500 Go, 1 lecteur de 1 To, 1 lecteur de 3 To, 1 lecteur de 4 To (sera ajouté ultérieurement au pool, contenant toutes les données des lecteurs répertoriés ci-dessus)

Si j'étais vous, je vendrais les disques les plus petits et investirais dans des disques plus gros de la même taille. Cela vous facilitera la vie. En outre, vous ne pouvez pas simplement ajouter des lecteurs à un pool ZFS. Il y a des contraintes. Lisez ici .

L'ajout du disque 4 To à la piscine constituera-t-il un problème de quelque nature que ce soit?

Peut-être. Je suis dans une position similaire. Dans le futur, je devrais augmenter ma capacité de stockage. À ce moment-là, je prévois d’acheter un deuxième HBA et une nouvelle gamme de disques plus gros. Je vais ensuite transférer toutes les données de mes disques existants vers mes nouveaux disques, puis vendre mes disques existants. Il peut y avoir d'autres moyens (moins chers) de contourner cela, mais en procédant ainsi:

  1. Garde tous mes lecteurs de la même taille
  2. Seulement le coût supplémentaire d'un HBA supplémentaire, ce qui n'est pas une mauvaise chose d'avoir traîner de toute façon
  3. Ne nécessite pas que je remplace mes disques un par un, re-argent après chaque remplacement.

Toute recommandation sur un système d'exploitation Linux d'exécuter tout cela, et dois-je utiliser un lecteur distinct pour le système d'exploitation? Je connais Ubuntu, RHEL et OpenSUSE/SLES.

N'utilisez pas Linux, il n'a pas de support natif ZFS. La prise en charge de ZFS par Linux provient de ZFS sous Linux et de zfs-Fuse . L’état actuel de ZFS est en pleine mutation, Oracle faisant de son mieux pour le ruiner. ZFS sera probablement branché à la version 28 très prochainement. Par conséquent, ne créez pas votre pool ZFS avec une version supérieure à 28 si vous n'êtes pas certain de vouloir vous en tenir à une solution Oracle. Actuellement, FreeBSD et ses dérivés prennent en charge la version 28 de ZFS.

Puisque vous êtes un noob auto-proclamé ZFS, je recommanderais FreeNAS . Je l'utilise depuis un certain temps maintenant et j'en suis plutôt content. Cela permettra certainement la configuration la plus simple pour vous.

Réflexions supplémentaires:

Assurez-vous de choisir le niveau de parité approprié pour votre cas d'utilisation particulier. En particulier, assurez-vous de planifier URE . En gros, vous ne voulez pas utiliser RAID 5 (RAID Z1) si vous utilisez un disque de plus de 2 To. Il y a d'autres facteurs à prendre en compte qui pourraient vous inciter à augmenter également votre niveau de données de parité. Voici un bon article sur le sujet.

Mise à jour:

Cela fait un an et demi que j'ai posté cette réponse et depuis lors, j'ai donné une nouvelle chance à ZFS sur Linux (serveur Ubuntu en particulier). Il a parcouru un long chemin depuis que j'ai essayé pour la première fois et je suis assez heureux jusqu'à présent. Ma raison pour changer était les restrictions d'installation sur FreeNAS et le système de jailing. Je voulais utiliser mon serveur pour plus qu'un serveur NAS et FreeNAS rend cela difficile. Le système d'emprisonnement est bon et très sécurisé, mais je n'avais pas vraiment besoin de ce niveau de sécurité chez moi et je ne voulais pas me connecter à une prison chaque fois que je voulais décompresser un fichier. Je pense que FreeNAS est toujours un bon choix si vous commencez tout juste à utiliser ZFS (à cause de l'interface Web) ou si vous voulez juste une appliance NAS (c'est-à-dire qu'aucune autre fonctionnalité de serveur n'est requise).

20
ubiquibacon

1: il n'y a pas de problème à changer quoi que ce soit. Le pool doit pouvoir être importé indépendamment de la CPU, de la carte mère ou de quelque chose de similaire.

2: ZFS fonctionne mieux avec des périphériques de la même taille. De plus, comme vous voulez la redondance, les périphériques plus gros que le plus petit perdent leur taille supplémentaire. Enfin, vous ne pouvez pas ajouter de périphérique (par exemple: le disque 4 TB) à un RAIDZ. Si vous souhaitez uniquement la redondance des métadonnées (ce dont je doute), vous pouvez créer une bande avec tous vos disques et ajouter le disque 4 TB ultérieurement au pool.

Vous pouvez également créer un pool de 500 Go contenant un miroir avec les disques 1 et 2 et conserver le disque 3 pour plus tard, puis ajouter un second miroir lorsque le disque 4 TB est disponible avec les disques 3 et 3. 4 créer un pool de 3.5 TB.

3: oui, voir n ° 2

4: Pas de recommandation.

4
jlliagre

Si vous voulez créer un raid avec zfs en utilisant différentes tailles de disque, vous devez utiliser "zpool create (nom de votre pool) raidz1 -f sdb sdc sdd" l'argument -f force zfs à utiliser différentes tailles, par exemple 500 Go 1 To 250 Go Hd

1
Juan Sanchez

Il s'avère que vous ne pouvez pas créer avec ashift = 12 dans zfs-Fuse:

# zpool create -n -o ashift=12 test /dev/disk/by-id/scsi-SATA_......
property 'ashift' is not a valid pool property

Mais cela fonctionne avec celui de github zfs + spl 0.6.5.x:

# dd if=/dev/zero of=/tmp/testfile bs=1M count=64
# zpool create -o ashift=12 test /tmp/testfile
# dd if=/dev/zero of=/tmp/testfile8 bs=1M count=64
# zpool create -o version=8 test8 /tmp/testfile8
1
additionalinfo

Une solution ad hoc à cela consiste à partitionner les disques en ensembles de partitions de taille égale, puis à créer plusieurs pools en utilisant des ensembles de partitions de taille égale.

Il peut y avoir des problèmes de performances dus à la présence de plusieurs pools sur les mêmes disques physiques, mais vous pouvez utiliser la plupart de l'espace disponible sur vos disques.

0
Gianni Fiumetta

la réponse d'ubiquibacon couvre toutes vos questions directes, mais je pensais que je mettrais un peu l'accent sur une "expérience directe".

ZFS sur FreeBSD est mon domaine d’expérience principal, bien que la plupart des implémentations de ZFS soient suffisamment similaires pour que les ressources puissent être analogues. J'ai choisi FreeBSD pour mon installation, car il me fournit un système d'exploitation polyvalent que je peux utiliser à toutes fins utiles que je choisis, par opposition à une solution plus conviviale mais spécifique, telle que FreeNAS. ZFS, configuré correctement, peut être un excellent système. ZFS configuré de manière incorrecte peut être une douleur totale. C'est un système de fichiers relativement nouveau et n'est pas aussi bien compris que des systèmes de fichiers plus anciens, plus bien établis (comme UFS2 dans FreeBSD ou ext2/3/4 sous Linux. Les listes de diffusion sont assez actives et cela en vaut probablement la peine. au moins, numérisez-les pour comprendre ce que l'on attend de vous, si vous rencontrez des problèmes. Les personnes qui vous accompagnent sont généralement sympathiques et très serviables, dans la mesure où vous êtes disposé à nous aider à comprendre ce qui se passe. Pour cette "nouveauté" générale. , vous obtenez des fonctionnalités intéressantes comme la compression qui peut être activée dans de nombreuses circonstances avec peu de perte et des fonctionnalités dangereuses comme La déduplication , qui peut nécessiter beaucoup de ressources , est impossible à désactiver sans copier tous vos fichiers. données off, et peut rendre votre ordinateur non démarrable (comme le mien, un jour heureux).

C'est un excellent système de fichiers si les avantages l'emportent sur les compromis. J'ai été heureux avec le mien en général.

0
Steven Schlansker