web-dev-qa-db-fra.com

À combien de niveaux de sous-pages les robots Google sont-ils explorés lors de l'extraction et de l'indexation des pages liées dans la console de recherche Google?

Supposons que je soumette une page de sitemap contenant tous les liens que je souhaite analyser par Google, mais au lieu de soumettre un sitemap, je récupère la page et les pages liées et laisse Google les indexer. À combien de niveaux de sous-pages ces bots rampent-ils? Explorent-ils les pages chaînées ou analysent-ils uniquement les liens de la page de sitemap parent récupérée?

2
Daniel Harris

Le "vieux" SGC indique:

Explorer cette URL et ses liens directs

Donc, ce serait juste 1 niveau profond.

"L'outil d'inspection d'URL" dans le "nouveau" GSC ne semble pas vous donner une option similaire et ne permet d'analyser qu'une seule URL, autant que je sache.

4
MrWhite

Sur mes sites, j'ai un sitemap XML mais j'inclue seulement le "contenu réel" (donc sur WordPress, j'inclus posts et pages, mais pas tags et categories) et j'ai un sitemap HTML que je code à la main, ce qui me permet d'avoir un contrôle total sur les liens qui y figurent et d'ancrer le texte de ces liens.

Ces sitemaps, combinés à ma navigation et à mes liens internes au sein du contenu, ont toujours suffi pour que le "contenu réel" de mes sites soit indexé, mais je ne suis pas sûr que l'un de mes sitemaps ait toutes les URL que j'ai soumises indexées.

Je suppose que ce que je dis, c’est que Google explore ce qu’ils veulent et que les sitemaps ne sont que des indices pour le robot. Même si vous utilisez Search Console pour récupérer des pages, rien ne garantit que Google les inclura dans l'index de votre site.

Si vous souhaitez attirer l'attention de Google sur le contenu pertinent, la meilleure façon de le faire consiste probablement à vérifier que ce contenu contient des liens externes, ce qui peut être aussi simple que de partager l'URL sur Twitter ou d'utiliser Feedburner.

0
adam-asdf