web-dev-qa-db-fra.com

Après avoir résolu les problèmes de contenu en double, mon classement sur les moteurs de recherche sera-t-il renvoyé?

Background: J'ai créé un nouveau design de site Web à www.example.com/new qui a été chargé depuis un certain temps alors que je redessinais le site. Ce site partage la plupart du même contenu que mon site actuel à l'adresse www.example.com.

Comme je n'avais pas de lien vers les pages du nouveau site, je pensais que Google ne l'indexerait pas, mais il semble que ce soit le cas. Cela expliquerait le fait que je connaisse une baisse du référencement pour mon site.

Maintenant que j'ai compris le problème, je vais remplacer tous les fichiers du répertoire /new par les fichiers en double (c'est-à-dire remplacer /new/gyms.html par /gyms.html), ce qui devrait éliminer le contenu en double.

Ma question est, maintenant que j'aurai résolu le problème de dupliquer le contenu, cette pénalité de référencement disparaîtra-t-elle? Est-ce que mes classements vont revenir à ce qu'ils étaient? Y aura-t-il toujours des effets persistants?

2
etangins

La baisse de visibilité dans la recherche est presque certainement sans rapport avec le site Web parallèle.

Presque tous les sites Web ont un contenu hébergé sur plusieurs URL au sein du même site Web. C'est quelque chose que les moteurs de recherche doivent traiter. Il n'y a aucune raison de pénaliser un site Web pour cela. Certainement chez Google, il n'y a aucune pénalité de contenu en double lorsqu'il s'agit de votre propre contenu.

Les effets que vous verriez (avec la duplication de contenu sur un site Web) sont les suivants:

  • Les algorithmes de Google choisiront une URL à afficher pour le contenu de la recherche. Peut-être qu'il ne choisira pas l'URL que vous choisiriez. Si vous avez une préférence, indiquez-la (via des redirections, rel = canonique, liens internes, etc.).

  • En fonction de la quantité de duplication (chaque élément de contenu est-il hébergé 2x, 20x ou 200x?), Il peut arriver que le processus d'analyse prenne trop de temps pour le serveur ou que le contenu nouveau/mis à jour ne soit pas pris aussi rapidement il pourrait en être autrement.

Avec un nombre "raisonnable" de duplications (dans votre cas, juste 2x?) Et avec un serveur raisonnablement puissant, aucun de ces problèmes ne pose de problèmes réels. La plupart des utilisateurs ne remarqueront pas le choix de l'URL, et l'exploration peut toujours suffire.

2
John Mueller