web-dev-qa-db-fra.com

l'instruction no-robots de x-robots peut-elle être suffisante pour déclarer un contenu en double?

J'ai toujours le sentiment qu'au moins un moteur de recherche dans le monde entier ne supporte pas rel-canonical comme le fait google.

De plus, rel-canonical offre moins de flexibilité, en particulier lorsqu'il s'agit d'ensembles de contenu similaire, chaque ensemble comportant de nombreuses pages inégales, et en particulier lorsque je ne souhaite pas utiliser l'option d'affichage complet (car mon site est principalement basé sur des images). .

Ma question est alors, puis-je annuler complètement l'option rel-canonical et appliquer simplement la balise méta sans index x-robots à toutes les pages des ensembles dupliqués ou google penserait-il que noindex signifie que j'essaie simplement de cacher quelque chose et non faire un effort suffisant pour déclarer le contenu original?

1
Mike

Noindex est une excellente option pour traiter le contenu en double. J'ai utilisé:

  • robots.txt - Empêche Googlebot de rechercher le contenu, économise de la bande passante. Il se peut que Google indexe certaines pages comportant des liens externes, mais uniquement avec du texte d'ancrage entrant. Ne passera pas le PageRank de liens externes.
  • balise noindex de méta robots - Permet à Googlebot d’analyser la page, mais à Google de ne pas l’indexer. Ne passera pas le PageRank de liens externes très efficacement.
  • balise canonique meta rel - prise en charge par tous les principaux moteurs de recherche. Pousse le PageRank à la page 1 de la pagination.
  • Laissez simplement tout être exploré et indexé. Google ne pénalise pas le contenu dupliqué sur votre propre site (par opposition au contenu copié depuis un autre site). Google choisit simplement une page à indexer. Ils peuvent choisir une URL que vous ne préférez pas. Les seuls problèmes surviennent lorsque le nombre de doublons est tel que Googlebot ne parvient pas à analyser votre site en raison du volume d'URL en double.
0
Stephen Ostermiller