web-dev-qa-db-fra.com

Téléchargement récursif (`wget -r`) équivalent pour Firefox?

J'ai un site web et je souhaite télécharger toutes les pages/liens de ce site Web. Je veux faire un wget -r sur cette URL. Aucun des liens ne va "à l'extérieur" de ce répertoire spécifique, donc je ne suis pas inquiet du téléchargement de l'intégralité de l'Internet.

Comme il s'avère, les pages que je veux sont derrière la section protégée par mot de passe du site Web. Bien que je puisse utiliser Wget pour faire manuellement cette négociation de cookies, ce serait beaucoup plus facile pour moi de simplement "connecter" du navigateur et d'utiliser un plugin Firefox pour tout télécharger de manière récursive.

Y a-t-il une extension ou quelque chose qui me laissera faire cela? De nombreuses extensions se concentrent sur l'obtention de supports/images de la page (heh. Heh.) Mais je suis intéressé par tout le contenu - HTML et tout.

Suggestions?

Merci!

éditer

Downthemall semble être une suggestion fraîche. Peut-il faire un reconsive Télécharger? Comme dans, téléchargez tous les liens de la page, puis téléchargez tous les liens contenus dans chacune de ces pages, etc.? Pour que je reflète essentiellement l'ensemble du répertoire en suivant les liens suivants? Un peu comme le -r Option de wget?

15
rascher

Downthemall ne fait pas de téléchargement récursif. Il suffit de saisir uniquement des liens de la page en cours. Seule la page HTML des URL liées est téléchargée. Les images et les médias des pages liées ne sont pas téléchargés.

7
Shibu

Spiderzilla est censé faire cela - mais c'est un peu vieux (2006).
[.____] Il est basé sur HTTrack Site Web Copieur .
[.____] qui a Versions mises à jour pour toutes les plateformes.

Il y a aussi ne autre addon plus ancienne qui peut vous laisser plug-in 'wget' lui-même (entre autres).

Cependant, je sentez trop que le downesthemall est probablement un bon choix.
[.____] Si vous savez ce que vous voulez refléter, sélectionner les bons liens ne doit pas être un problème.
Et, vous pouvez toujours cocher la case 'TOUT' ".

Donc, +1, pour Downthemall Si vous voulez coller au navigateur.
Et, utiliser htttrack Si vous voulez un outil autonome (et wget n'est pas pratique).

MISE À JOUR: Vous voudrez peut-être aussi consulter les votes de Httrack à cette question de prime,
[.____] Comment puis-je télécharger un site Web entier .

6
nik

Vous pouvez utiliser wget -r Avec des cookies du navigateur, extraites après l'autorisation.

Firefox a une option "Copier comme curl" dans le menu contextuel de la demande de page dans l'onglet Réseau des outils de développement Web, Thite Ctrl + Shift + Q (Vous devrez peut-être recharger la page après avoir ouvert les outils): screenshot

Remplacez le drapeau de l'en-tête de CURL -H avec wget --header, et vous avez tous besoin d'en-têtes, y compris des cookies, de continuer la session de navigateur avec Wget.

4
user