web-dev-qa-db-fra.com

Comment rel = "next" et rel = "prev" aident-ils en SEO s'ils sont utilisés pour la pagination?

Comment rel = "next" et rel = "prev" aident-ils dans le référencement, si utilisés pour la pagination? Est-ce vraiment nécessaire?

c'est-à-dire imaginez que vous êtes à la page 2:

<link rel="prev" href="http://www.example.com/article-part1.html">
<link rel="next" href="http://www.example.com/article-part3.html">
9
Niko Jojo

Pagination avec rel = “next” et rel = “prev”

Un peu comme rel = ”canonical” agit pour le contenu dupliqué, vous pouvez maintenant utiliser les éléments de lien HTML rel = ”next” et rel = ”prev” pour indiquer la relation entre les URL de composants dans une série paginée. Sur le Web, une série de contenu paginée peut prendre plusieurs formes: un article divisé en plusieurs pages de composants, une catégorie de produits contenant des éléments répartis sur plusieurs pages ou un fil de discussion divisé en une séquence d'URL. Désormais, si vous choisissez d'inclure les balises rel = ”next” et rel = ”prev” dans les pages de composants d'une série, vous donnez à Google un indice solide.

Source: blogspot de Google


Est-ce nécessaire? Vous devriez faire ça? Yup, cela réduira la pénalité de la "page dupliquée", car il peut voir qu'il s'agit d'une page suivante/précédente de la page en cours. Il indique la relation entre les pages (d'où rel ).

6
Martijn

Je dirais que si vous divisez une longue page en petits morceaux (peut-être pour plus de revenus publicitaires), qui auraient dû être constitués d'une seule page puis utilisant les attributs précédent/suivant, ils donneraient un signal clair aux moteurs de recherche sur la page principale, de sorte que le Les moteurs de recherche peuvent afficher la page principale des SERP et accorder moins d'importance aux morceaux.

À propos du contenu en double, nous devrions toujours nous efforcer de réduire le contenu en double et prev/next ne concerne pas le contenu en double. Soit nous devons ajouter rel = canonique ou bloquer les pages en double via Robots.txt ou une exclusion méta-noindex.

2
AgA

Autant que je sache, cela vous aidera à éviter les problèmes de contenu en double uniquement, car les pages paginées ont le même titre et les mêmes descriptions, pour éviter ce problème, Google introduit ces balises. Au lieu d’appliquer manuellement ces balises, je bloque généralement les pages paginées dans le fichier ROBOT.txt pour éviter les duplications. C’est la méthode la plus simple par rapport à la méthode rel car vous devez mentionner manuellement partout et ces balises ne sont pas obligatoires si vous bloquez. les pages paginées dans ROBOT.txt.

0
Bala