web-dev-qa-db-fra.com

Comment puis-je empêcher les erreurs Soft 404 de s'accumuler dans la page "Aucun résultat"?

Récemment, j'ai remarqué une liste de plus en plus longue d'erreurs Soft 404 dans les outils pour les webmasters de Google. Ils sont tous destinés aux pages de résultats de recherche générées dynamiquement et indiquant "Aucune correspondance trouvée".

Je do comprends ce que Google entend par Soft 404 et pourquoi ils le signalent pour ces pages. J'ai donc ajouté <meta name="robots" content="noindex"> à ces pages.

Toutefois, Google rapporte toujours de nouvelles erreurs Soft 404 pour les pages qui utilisent la balise méta noindex.

Pourquoi Google signale-t-il une erreur any sur une page que je ne lui ai pas indiquée?

Le problème est qu'avec toutes ces erreurs indésirables, je ne peux pas voir s'il existe de vrais problèmes qui doivent être résolus.

Certains ont dit que ces pages devraient renvoyer un code d'état 404. Mais cela ne fait que déplacer le problème vers l'onglet 404 erreurs. En outre, Google renvoie le code d'état 200 pour leur page pas de résultats.

Je ne souhaite pas bloquer l'accès à l'aide de robots.txt, car je veux que les liens de ces pages soient suivis et que Google voie la balise méta noindex. En outre, il n’existe aucun motif que je puisse utiliser pour les bloquer.

Google a trouvé ces URL en premier lieu car le contenu existait auparavant, mais a depuis été supprimé. Je ne peux pas renvoyer de code d'état 410, car mon code PHP ne permet pas de connaître la raison pour laquelle aucun résultat n'a été trouvé.

Y at-il quelque chose que je puisse faire pour mieux voir les vrais problèmes?

9
toxalot

Vous devez empêcher Google d'explorer les pages de recherche sur les sites. Google ne veut pas explorer votre recherche de site . Voici le billet de blog de Google sur Matt Cutts sur le problème: Résultats de la recherche dans les résultats de recherche de Matt Cutts le 10 mars 2007 . Désormais, Google pénalise activement les sites permettant d'explorer leurs résultats de recherche et de figurer dans les SERPs de Google. En autorisant Googlebot à analyser vos pages de résultats de recherche, vous risquez la totalité de votre trafic de référencement Google. L’un des trucs préférés des examinateurs de Google consiste à utiliser les termes de spam tels que "Viagra" dans la recherche sur le site. Lorsqu'ils voient une page analysable comme résultat (même si elle indique "aucun résultat pour Viagra trouvé"), ils appliqueront une pénalité manuelle à votre site en tant que site de spam.

Vous devriez mettre votre recherche de site dans robots.txt. Assurez-vous simplement que Googlebot peut toujours analyser vos pages de contenu. Vous ne pourrez alors plus avoir de nouvelles erreurs soft 404 signalées.


Un grand nombre d'erreurs 404 (même les erreurs 404 légères) ne nuit pas au classement de votre site. Google signale les erreurs sur toutes les pages qu’il peut trouver et analyser, que vous souhaitiez l’indexer ou non, et que vous y ajoutiez ou non un lien. Ils le font parce que les rapports d'erreur servent uniquement à votre avantage et qu'ils estiment que vous devriez être pleinement informé.

Voici ce que John Mueller de Google a à dire à ce sujet :

  1. Les erreurs 404 sur des URL non valides ne nuisent en aucune façon à l’indexation ou au classement de votre site. Peu importe qu’il y en ait 100 ou 10 millions, ils ne nuisent pas au classement de votre site. http://googlewebmastercentral.blogspot.ch/2011/05/do-404s-hurt-my-site.html
  2. Dans certains cas, les erreurs d'analyse peuvent provenir d'un problème structurel légitime sur votre site Web ou votre CMS. Comment vous dites Vérifiez l’origine de l’erreur d’analyse. S'il existe un lien brisé sur votre site, dans le code HTML statique de votre page, cela vaut toujours la peine de le corriger. (merci + Martino Mosna)
  3. Qu'en est-il des URL funky qui sont "clairement cassées?" Lorsque nos algorithmes aiment votre site, ils peuvent essayer de trouver du contenu de qualité supérieure, par exemple en essayant de découvrir de nouvelles URL en JavaScript. Si nous essayons ces "URL" et trouvons un 404, c’est génial et attendu. Nous ne voulons simplement rien rater d’important (insérez ici le mot Googlebot trop lié). http://support.google.com/webmasters/bin/answer.py?answer=1154698
  4. Vous n'avez pas besoin de corriger les erreurs d'analyse dans les Outils pour les webmasters. La fonctionnalité "marquer comme fixe" est uniquement destinée à vous aider si vous souhaitez suivre vos progrès là-bas; cela ne change rien à notre pipeline de recherche Web, alors n'hésitez pas à l'ignorer si vous n'en avez pas besoin. http://support.google.com/webmasters/bin/answer.py?answer=24674
  5. Nous répertorions les erreurs d'analyse dans les outils pour les webmasters par priorité, en fonction de plusieurs facteurs. Si la première page d’erreurs d’analyse n’est manifestement pas pertinente, vous ne trouverez probablement pas d’erreurs d’analyse importantes dans les pages suivantes. http://googlewebmastercentral.blogspot.ch/2012/03/crawl-errors-next-generation.html
  6. Il n’est pas nécessaire de "réparer" les erreurs d’analyse sur votre site Web. Trouver 404 est normal et attendu d’un site Web sain et bien configuré. Si vous avez une nouvelle URL équivalente, il est recommandé d’y rediriger. Sinon, vous ne devriez pas créer de faux contenu, vous ne devriez pas rediriger vers votre page d'accueil, vous ne devriez pas non plus robots.txt interdire ces URL - toutes ces choses rendent plus difficile pour nous de reconnaître la structure de votre site et de la traiter correctement. Nous appelons ces erreurs "soft 404". http://support.google.com/webmasters/bin/answer.py?answer=181708
  7. Évidemment, si ces erreurs d’exploration apparaissent pour les URL qui vous intéressent, par exemple les URL de votre fichier Sitemap, vous devez agir immédiatement. Si Googlebot ne parvient pas à analyser vos URL importantes, elles risquent alors d’être supprimées de nos résultats de recherche et les utilisateurs risquent de ne pas pouvoir y accéder.
7