web-dev-qa-db-fra.com

Comment puis-je télécharger un site web entier?

Je veux télécharger un site Web entier (avec des sous-sites). Y at-il un outil pour cela?

81
UAdapter

Essayez l'exemple 10 de ici :

wget --mirror -p --convert-links -P ./LOCAL-DIR WEBSITE-URL
  • –mirror: active les options appropriées pour la mise en miroir.

  • -p: téléchargez tous les fichiers nécessaires pour afficher correctement une page HTML donnée.

  • --convert-links: après le téléchargement, convertissez les liens dans le document pour une visualisation locale.

  • -P ./LOCAL-DIR: enregistre tous les fichiers et répertoires dans le répertoire spécifié.
138
shellholic

HTTrack for Linux copying websites in offline mode

httrack est l'outil que vous recherchez.

HTTrack vous permet de télécharger un site Web à partir d'Internet dans un répertoire local, en construisant de manière récursive tous les répertoires, en récupérant le code HTML, les images et d'autres fichiers du serveur sur votre ordinateur. HTTrack organise la structure de liens relative du site d'origine.

38
Sid

Avec wget vous pouvez télécharger un site Web entier, vous devez utiliser le commutateur -r pour un téléchargement récursif. Par exemple,

wget -r http://www.google.com
7
Arthur Knopper

WEBHTTRACK WEBSITE WEB COPIER est un outil pratique pour télécharger un site Web dans son intégralité sur votre disque dur pour une navigation hors ligne. Lancez le centre de logiciels ubuntu et saisissez "guillemets de site Web" sans les guillemets dans le champ de recherche. sélectionnez-le et téléchargez-le du centre logiciel sur votre système. démarrez la webHTTrack à partir du menu de lancement ou du menu de démarrage, à partir de là, vous pourrez commencer à profiter de cet outil formidable pour les téléchargements de votre site

6
frizeR

Je ne connais pas les sous-domaines, c'est-à-dire les sous-sites, mais wget peut être utilisé pour récupérer un site complet. Jetez un oeil à la cette question de superutilisateur . Il indique que vous pouvez utiliser -D domain1.com,domain2.com pour télécharger différents domaines dans un seul script. Je pense que vous pouvez utiliser cette option pour télécharger les sous-domaines i.e -D site1.somesite.com,site2.somesite.com

3
binW

Vous pouvez télécharger toute la commande du site Web:

wget -r -l 0 website

Exemple :

wget -r -l 0 http://google.com
1

J'utilise Burp - L'outil araignée est beaucoup plus intelligent que wget et peut être configuré pour éviter les sections si nécessaire. Burp Suite est en soi un ensemble puissant d’outils facilitant les tests, mais l’outil spider est très efficace.

1
Rory Alsop

Si la vitesse est un problème (et le bien-être du serveur ne l'est pas), vous pouvez essayer puf , qui fonctionne comme wget mais peut télécharger plusieurs pages en parallèle. Ce n'est cependant pas un produit fini, pas entretenu et horriblement sans papiers. Néanmoins, pour télécharger un site Web contenant de nombreux fichiers de petite taille, cela pourrait être une bonne option.

0
loevborg