web-dev-qa-db-fra.com

Pourquoi Wikipedia afficherait-il des liens externes comme rel = "nofollow"?

Je comprends que rel="nofollow" est un moyen sûr de créer des liens vers des sites externes, mais pourquoi Wikipédia refuse-t-il de créer des liens vers d’autres sites sans nofollow?

Est-ce une question de confiance avec la communauté?

N'y aurait-il pas quelque chose de bon dans le référencement pour Wikipedia s'ils utilisaient des liens de suivi pour des sources fiables?

Voir l'exemple ci-dessous: enter image description here

27
Fabio Milheiro

L’un des moyens utilisés par les moteurs de recherche pour déterminer ce que Google appelle "PageRank" est le nombre de liens entrants, en accordant plus de poids aux sites avec un nombre de pages élevé (NB: je vais utiliser ce terme comme mot générique pour indiquer comment un moteur de recherche hiérarchise l'affichage des résultats).

Cela a abouti à ce que l'on appelle le "spam de lien", dans lequel plusieurs sites ont été créés dans le but de créer des liens à partir de ces sites afin d'essayer d'améliorer le classement des pages du site lié.

Étant donné que Wikipedia est l’un des sites Internet les mieux classés et qu'il permet à tout le monde de créer des liens à partir de cet emplacement, ce serait un endroit idéal pour créer des pages et des liens dans le seul but de renforcer le classement des pages de leur site.

En appliquant des balises "nofollow", il indique aux moteurs de recherche que ces liens ne servent à rien lorsqu'il s'agit d'évaluer leur valeur pour le site lié. Cela signifie que l'incitation à remplir Wikipédia avec du spam de lien est pratiquement éliminée.

54
Dwev

Il existe plusieurs raisons pour lesquelles tout site Web (y compris Wikipedia) accueillant le contenu de l'utilisateur aujourd'hui créerait des liens sans suivi.

  1. Les liens peuvent devenir obsolètes et peuvent même renvoyer des pages d'erreur (exemple: erreur 404) à l'utilisateur lors de l'accès. Une page Web contenant au moins un lien vers une page d'erreur n'est pas une bonne page à indexer sur Internet.

  2. Comme quelqu'un l'a mentionné, les sites Web qui permettent aux utilisateurs de publier du contenu peuvent potentiellement manipuler le classement du site et/ou d'autres sites en faisant la promotion de liens vers n'importe quel site Web (en fonction des filtres mis en place par le client). Comme exemple concret, si un utilisateur publie des centaines de liens vers du vulgaire et/ou du sexe alors que le site n’a aucun lien avec cela, il peut au moins confondre les robots des moteurs de recherche en leur faisant croire que le site Web a plus à cacher et qu’il peut Ne faites pas confiance pour fournir des résultats de qualité que les utilisateurs attendent de voir.

Pour que les webmasters se protègent des robots des moteurs de recherche, ils devront (ou du moins devraient) procéder de l'une des manières suivantes lors de la publication de contenu utilisateur à l'intention du public:

  1. Ils mettront le contenu en attente pendant qu'une personne vérifie le contenu pour voir s'il est acceptable pour le site, puis le publie manuellement. C’est la meilleure option, mais nous sommes dans le monde où les gens n’ont pas le temps de vérifier des milliers de paragraphes de contenu.

  2. Ils laisseront le contenu être publié immédiatement, mais chaque lien sera non suivi, du moins jusqu'à ce que les liens soient validés manuellement.

  3. Ils utiliseront des filtres automatisés pour voir si le contenu correspond à certains mots ou à certaines phrases et, le cas échéant (ou non), le contenu sera rejeté.

En tout état de cause, si le lien n’ajoute aucune valeur à un utilisateur ou n’est en aucun cas lié au site Web, il doit être fait de manière non suivie, ou mieux encore, le lien ne doit pas être disponible du tout.

4
Mike