web-dev-qa-db-fra.com

Comment explorer un site Web nécessite des cookies pour l'audit?

Situation: Le site Web de My Client requiert des cookies pour y accéder. Les utilisateurs doivent choisir (langue et pays) pour accéder au site Web.

Le problème est le suivant: Chaque fois que j'essaie d'explorer le site Web à l'aide d'un logiciel (DeepCrawl ou Screaming Frog), le robot continue à obtenir la même page qui demande la langue et le pays pour chaque URL.

Question: Comment autoriser le robot à contourner ou même à sélectionner la langue et le pays pour accéder au site Web?

1
Mostafa

Moteurs de recherche Les robots tels que Googlebot n'utilisent pas de cookies et si votre contenu n'est visible que par des cookies, votre contenu n'est pas explorable. Vous devez vous assurer que le site Web est explorable sans cookies.

La solution simple consiste à faire un contrôle des cookies avant de servir l'option de choix de la langue; si le test de cookie est négatif, votre site Web sert la version la plus populaire de votre site Web, puis pour les autres langues que vous utilisez - rel = "substitut" hreflang = "en-XXX" dans la tête afin que Google indexe toutes les versions.

1
Simon Hayter

Vous devez utiliser un robot avec un cookie jar. En voici un que j'ai écrit il y a quelque temps et qui peut se connecter et conserver des cookies pour un site. Vous n'avez pas parlé d'une langue. C'est PHO et Mysql ou Oracle.

https://github.com/Pamblam/Crawler