web-dev-qa-db-fra.com

Certaines parties de mon site ne sont pas indexées après la modification des URL, l'ajout de redirections et le blocage des anciennes URL dans le fichier robots.txt.

J'ai un site Web avec quelques URL et plus tard j'ai optimisé les URL et changé la structure des liens.

J'ai bloqué les anciennes URL avec robots.txt et suggéré des redirections d'anciennes vers de nouvelles URL, puis j'ai récupéré et rendu, mais certaines des pages ne sont pas indexées dans Google.

Récemment, toutes les balises méta du site ont été mises à jour. Les ressources ont été récupérées et rendues avant une semaine, mais elles affichent un statut partiel et seuls deux des liens pour lesquels les balises méta sont mises à jour ont été indexés et les autres liens sont indexés avec des balises méta anciennes.

Comme je l'ai déjà dit, certains liens ne sont pas indexés du tout, le même problème se pose même après la mise à jour des balises méta.

Est-ce à cause du blocage des anciennes URL dans le fichier robots.txt ou de quelque chose d'autre?

2
Nikitha Narayan

J'ai bloqué les anciennes URL avec le fichier robots.txt et suggéré des redirections d'anciennes à nouvelles

Les moteurs de recherche ne pourront pas suivre les redirections car vous bloquez les anciennes URL avec le fichier robots.txt.

Récupérer lorsque Google affiche un statut partiel

Il peut y avoir plusieurs raisons.

  • Ressources bloquées. Cela semble probable dans votre cas.

  • Ressources externes bloquées. Très commun, mais généralement pas un problème. Si une ressource externe est bloquée, vous ne pouvez rien y faire, mais vous n'avez généralement pas besoin de la réparer.

  • La page est trop volumineuse pour que Google puisse la gérer pour le moment. Google pourrait économiser leurs ressources pour des tâches plus importantes si vos pages sont volumineuses.

  • Serveur lent causant des délais d'attente.

et seulement deux des liens pour lesquels les balises META sont mises à jour ont obtenu l'indexation

L’outil d’extraction en tant que Google est avant tout un outil de diagnostic; vous ne devriez pas vous attendre à obtenir des pages indexées à l’aide de cet outil.

Les causes probables derrière cela sont que vous empêchez Googlebot d’explorer, vérifiez votre fichier robots.txt. Ou que le contenu est de mauvaise qualité.

et les autres liens sont indexés avec d’anciennes balises méta.

Non, ils étaient déjà indexés, ils ne l'ont pas encore été.

Comme je l'ai déjà dit, certains liens ne sont pas indexés du tout, le même problème se pose même après la mise à jour des balises méta.

La mise à jour des balises META n'est pas une solution magique. Ducytape est cependant, mais vous ne pouvez pas enregistrer un site en bande.


Est-ce à cause du blocage des anciennes URL du fichier robots.txt ou de quelque chose d'autre?

L'ancien.

Quelques informations sur le fichier robots.txt que vous devriez connaître.

  • /robots.txt est utilisé pour empêcher l'analyse, pas l'indexation.

  • /robots.txt n'est pas une solution magique.

  • Il est rarement nécessaire de bloquer l'exploration. Les exceptions concernent les cas où les moteurs de recherche trouveraient un nombre infini de pages, par exemple. un calendrier.

  • Cela ne fait absolument rien pour la sécurité.

On dirait que c'est un fichier assez inutile? Il suffit de le supprimer ou de remplacer son contenu par

User-Agent: *
Disallow:

Sitemap: https://example.com/sitemap.xml
2
Oskar Skog