web-dev-qa-db-fra.com

Système de fichiers Linux pour un grand serveur de fichiers

J'aimerais savoir, des personnes plus expérimentées, quel serait le meilleur choix du système de fichiers à utiliser pour un serveur de fichiers ayant plus de 20 To de disques durs. Personnellement, j'ai toujours utilisé EXT3 (retour dans les jours) et EXT4 (puisqu'il est disponible) [et une fois que REISERFS 3, même s'il a provoqué de nombreuses corruptions de données] sur mes ordinateurs personnels et sur les "petits serveurs" de démarrage et de racine.

Cependant, comme étant ext4 Outils (bien que non ext4 elle-même) est limitée à 16 To partitions, cela peut ne pas être mon meilleur choix. La distribution sera deebian 6.0 (Squeeze) et/ou Gentoo (dernière version), le noyau devrait donc être assez récent (sur Debian au moins avec BackPorts), ce qui signifie que le noyau Linux> = 2.6.32.

Le serveur de fichiers sera utilisé à des fins mobiles trois (et des partitions séparées également, car le but est de conserver des données "sûres" et de ne pas vraiment m'occuper de générales). Tous les disques sont cependant cryptés à l'aide de LUKS:

  1. Médias, téléchargements et référentiel debian local [J'ai au moins 6 machines fonctionnant debian]> 20 To (peut-être une séparation supplémentaire entre les médias, les téléchargements et le référentiel Debian)
  2. Données (documents, photos, ...) ~ 4TB Safe (Signification RAID1 ou RAID6 + Disk)
  3. Sauvegardes> = 20 TB _ Pour des sauvegardes d'autres ordinateurs de mon gigabit LAN (pouvez-vous suggérer un logiciel qui sauvegarde l'ensemble du système d'exploitation, même si c'est Windows, BackUppC dit que cela le fait, toutes les alternatives?)

Les vitesses rapides ne sont pas vraiment nécessaires (accès simultanés: maximum à 2 ou 3 grands fichiers, disent des vidéos), même si c'est "juste" 200 Mo/s lit à partir d'un raid de 10 disque dur6 que je peux vivre avec cela.

Dans le résumé, je cherche un système de fichiers fiable et évolutif (c'est-à-dire facilement expansible) qui prend en charge plus de 20 To/partition. Le plus sûr et fiable Le FS est, mieux c'est. Le matériel utilisé sera d'au moins un noyau quad (AMD X4 630 ou Intel I5-2500k) et beaucoup de RAM (> 8 Go, peut-être> 16 Go) afin que les exigences matérielles soient remplies.

Mon ordinateur/serveur sera connecté à un UPS (alimentation ininterrompue) en cas de panne de courant Pourrait également faire des supports et des sauvegardes sur des machines séparées (c'est-à-dire deux serveurs).

8
user51166

Beaucoup de gens suggèrent des ZFS. Mais ZFS n'est pas disponible de manière native Linux, sauf par fusible. Je ne recommanderais pas cela pour votre situation où la performance est susceptible d'être importante.

Malheureusement, ZFS ne sera jamais disponible en tant que module de noyau natif, à moins que des problèmes de licence ne soient triés d'une manière ou d'une autre.

XFS est bon, mais certaines personnes ont signalé des problèmes de corruption et je ne peux pas vraiment commenter cela. J'ai joué avec de petites partitions XFS et je n'ai pas eu ces problèmes mais pas en production.

ZFS a trop d'avantages et de fonctionnalités utiles qui ne peuvent pas être ignorées cependant. En résumé, ils sont (voir - Wiki ZFS pour une description complète de ce qu'ils veulent dire):

  • Intégrité des données
  • Piscines de stockage
  • L2arc
  • Grande capacité
  • Copier sur l'écriture
  • Instantanés et clones
  • Striping dynamique
  • Tailles de bloc variable
  • Création de systèmes de fichiers légers
  • Gestion de cache
  • Endimité adaptative
  • Déduplication
  • Crypion

Alors, comment pouvons-nous vous entendre? Mon alternative suggérée qui pourrait convenir à votre situation est de considérer Nexenta . Ceci est un noyau Solaris ouvert avec GNU Outils userland fonctionnant en haut. Avoir un noyau de Solaris ouvert signifie avoir des ZFS disponibles de manière nativement.

3
Matt H

Vous devriez essayer de tenter à XFS, convient à vos besoins:

XFS est un système de fichiers 64 bits. Il prend en charge une taille maximale du système de fichiers de 8 exbibytes moins un octet, bien que cela soit soumis à des limites de bloc imposées par le système d'exploitation hôte. Sur les systèmes Linux 32 bits, cela limite la taille du système de fichiers et de fichiers à 16 tébibytes.

4
aleroot

Votre option la plus facile est d'utiliser XFS. Beaucoup de mauvaises expériences autour de XFS sont basées sur des anciens versions et des problèmes matériels de bureau que je ne pense pas être vraiment pertinents pour de nouveaux déploiements sur du matériel de serveur de qualité standard. J'ai écrit un blog post à propos de ce sujet qui peut vous aider à régler la situation actuelle. Il existe plusieurs installations de base de données XFS animées avec des centaines d'utilisateurs et des téraoctets de données que j'ai aidées à gérer. Ils sont tous sur le noyau de Debian Lenny (2.6.26) ou plus tard et je n'ai pas entendu une soupçon de problèmes avec eux depuis des années. Je n'utiliserais pas XFS avec un noyau antérieur que cela. J'ai entendu des rapports directs de personnes de voir un comportement étrange XFS toujours lorsque le système est sorti de la mémoire ou de l'espace disque; Je n'ai pas encore vu ça moi-même cependant.

La seule autre option raisonnable est d'utiliser EXT4 avec certains piratage de piratage pour prendre en charge les systèmes de fichiers plus importants. Je ne m'attendrais pas à ce que cela ait un niveau de fiabilité très différent. J'ai dû récupérer des données de plusieurs systèmes EXT4 brisés qui ont couru dans des bogues de noyau, jusqu'à présent tous fixés en amont mais pas dans le noyau du distributeur à cette époque. EXT4 a son propre ensemble de questions de métadonnées telles que Perte de données d'allocation retardée , des choses moins susceptibles de se produire sur EXT3. J'y estimerais que les chances de vous frapper une bogue ext4 seraient même plus élevées que la normale si vous le forcez sur la limite de taille normale, tout simplement parce qu'il semble plus probable que vous frappiez un nouveau chemin de code moins bien testé à un moment donné. .

Une autre idée est de simplement utiliser EXT3 plus sûre et ennuyeuse, accepter la limite de 16 To et la partition des choses mieux afin qu'aucun système de fichiers unique ne doit être aussi grand.

Une extrémité en vrac liée aux problèmes de journal. Vous n'avez pas parlé de la manière dont tous ces disques vont être connectés. Assurez-vous de comprendre l'implication de toute mise en cache écrite dans votre chaîne de stockage ici. Désactivez-le ou assurez-vous que le système de fichiers rinçage du cache. J'ai tiré des ressources à ce sujet à ce sujet écris fiables Si ce n'est pas quelque chose que vous vérifiez encore.

Les lecteurs sucent. Les matrices RAID sucent. Systèmes de fichiers sucer. Plusieurs échecs se produisent. Je suis heureux de voir que vous pensez déjà à des sauvegardes; Passer de bonne à une grande fiabilité sur le stockage nécessite plus que des raids et des lecteurs de secours. La redondance coûte quelque chose à tous les niveaux et l'argent de la complexité du matériel vs logiciel est délicat à naviguer. Et surveillez vos attentes de performance. Tandis qu'un tableau de raid comme si vous envisagez de faire des centaines de MB/s, tout ce qu'il faut faire deux lecteurs simultanés qui recherchent le disque autour de la chute constante de la chute totale de quelques MB/s. Je peux facilement écraser un tableau RAID10 de 24 disques de telle sorte qu'il ne fournisse que <5 Mo/s contre une Benchmark WorkLowload . Une chose qui vous aide à vous assurer de modifier la réveil à la hausse si plusieurs lecteurs en streaming sont possibles.

4
Greg Smith