web-dev-qa-db-fra.com

Suppression des paramètres d'URL Google Webmaster

Quelque temps avant que je crée un article pour suppression du site complet de Google Index , après avoir suivi de nombreux conseils, j'ai supprimé un grand nombre de pages de Google Index, mais je suis maintenant confronté à un autre problème, à savoir la suppression des paramètres d'URL de Google pour les outils pour les webmasters. .

Le nombre total de pages d'index de mon site Web est passé d'environ 5 000 000 pages à environ 97 000, mais le paramètre d'URL indique toujours les éléments suivants:

parameter               effect      Crawl

passed      1,274,056   Narrows     No Url
searchterm      1,269,622   Narrows     No Url
court       1,265,840   Narrows     No Url
sel         1,265,502   Narrows     No Url
page        1,187,018   Narrows     No Url

Mais les paramètres d'URL ne diminuent pas. Si je réintègre le site Web dans Google Index et Index Index, cela monte bien car les paramètres sont toujours dans le programme Google.

Une autre chose que je veux savoir si les pages indexées sont 97000 alors comment les paramètres sont 1 200 000, je ne comprenais pas comment

2
Vineet1982

Pour couvrir votre dernier point en premier, si vous avez 97 000 URL indexées mais que 1,2 million d'URL sont trouvées avec un paramètre, Googlebot ignore de nombreuses URL (plus de 1,1 m). En réalité).

En ce qui concerne la question principale, Webmaster Tools indique que, lorsque vous définissez l'option "Aucune URL", ils peuvent supprimer les URL de l'index. Il n'y a donc aucune garantie. ils seront enlevés.

Vous devriez revoir ces paramètres et vous assurer que le réglage "Effet" est correct. Par exemple, vous avez indiqué que page restreint le contenu, mais semble donner l'impression de paginer le contenu. Même si le contenu est restreint (c'est-à-dire filtré), Googlebot a peut-être décidé qu'il était utile d'afficher ces pages dans les résultats de recherche.

Enfin, si vous voulez vraiment supprimer TOUTES les pages avec ces paramètres de Google, alors robots.txt est une méthode bien meilleure. Quelque chose comme ce qui suit devrait fonctionner:

User-agent: *
Disallow: *?passed=*
Disallow: *&passed=*

… Et ainsi de suite pour chaque paramètre. N'oubliez pas de faire attention et vérifiez ce que vous bloquez, sinon vous pourriez supprimer de nombreuses pages de la recherche.

2
DisgruntledGoat