web-dev-qa-db-fra.com

Combien de liens (internes) est-ce trop?

Amusons-nous allons-nous ??

Au bas du contenu pour environ 1/3 de mes pages, mais pas dans le pied de page, je crée un lien interne pour chaque adresse IP associée à la page de mon site pour cette adresse IP. C'était bien il y a 6 mois, mais maintenant que ma base de données est devenue si volumineuse, j'ai découvert qu'il n'était pas rare de créer plus de 700 liens dans cette section, dont une page contenant 2600. Ooopppsss !! ;-) Houston nous avons un problème!

Maintenant, c'est assez facile à résoudre. Pour l'instant, je mets une limite = 100 sur la requête. Mais cela m'a fait réfléchir et chercher une réponse définitive. Jusqu'ici ... pas de chance.

S'il vous plaît, comprenez que je connais parfaitement les effets en matière de référencement. La plupart d'entre vous le savent déjà. Je ne cherche pas une leçon, juste une idée de plage.

Q: Combien de liens internes par page est trop nombreux?

Il y a beaucoup de réponses sur le net choisies dans diverses régions des Pays-Bas et j'ai un nombre en tête (également choisi), mais je pensais qu'il doit y avoir une réponse faisant autorité quelque part. Google dit raisonnable et la réponse de MOZ m'a semblé très arbitraire. Certains soi-disant experts en référencement disent entre 6 et 200. Ouais. C'est utile! On a dit qu'il n'y a pas de limite. Je sais qu'il existe une limite pratique semi-flexible. Je me souviens d’avoir lu à propos de cela il ya des années, mais je ne me souviens pas des mécanismes derrière tout cela. Je devrais réfléchir à cela pendant un moment.

Bonus Q: Si vous aviez le choix de créer des liens à partir d'une requête aléatoire (et oui, je peux le faire) ou bien environ 100 premiers (en utilisant la limite), que préféreriez-vous/conseiller et pourquoi? Encore une fois, j'ai une idée en tête (encore une fois, cueillie). Y at-il quelque chose de définitif à cet égard également?

Mes principales préoccupations sont l’extraction de contenu, la vitesse de téléchargement et, enfin, Giigle. (<= s'il vous plaît ne pas modifier pour changer)

5
closetnoc

Voici une visualisation du nombre de liens sur les pages d'accueil des 98 premières pages Web . Très peu en ont moins de 100 et beaucoup en ont 500 ou plus.

Google recommandait que chaque page ne comporte pas plus de 100 liens par page. Cependant, ils ont supprimé les "100 liens par page" des directives du webmaster il y a quelque temps. Matt Cutts a publié une vidéo où il dit que les limites de taille de page et de nombre de liens par page sont beaucoup plus élevées qu'auparavant.

J'ai personnellement travaillé sur un site Web avec 250-400 liens sur chaque page. Ce site a très bien fonctionné dans les moteurs de recherche.

Je ne sais pas quelle est la limite supérieure aujourd'hui. Je le garderais pas plus de 500 si j'étais toi. Au-dessus de cela et je penserais que votre site serait une valeur aberrante par rapport à d'autres sites.


Indépendamment du nombre de liens par page, votre site Web sur les adresses IP risque d'avoir d'autres problèmes de classement si vous avez une page pour chaque adresse IP. Cela fait beaucoup de pages et la plupart d’entre elles n’auront pas beaucoup de contenu. Vous souhaitez probablement uniquement soumettre les pages contenant le plus de contenu aux moteurs de recherche.

Je me souviens que Google essayait de supprimer les sites de numéros de téléphone de son index il y a quelques années. C'était en partie parce que beaucoup d'entre eux avaient des pages vierges du style "sois le premier à dire quelque chose sur ce numéro de téléphone".

4

Idéal serait probablement 50. 100 fonctionne aussi si vous voulez aller du côté supérieur.

Prendre vos points un à la fois:

  • UX: À moins que je ne comprenne mal comment ce site Web doit être utilisé, une fonction de recherche serait beaucoup plus utile qu'une liste d'adresses IP. De cette manière, les utilisateurs peuvent consulter le domaine ou la propriété intellectuelle de tous les sites Web avec lesquels ils ont eu des problèmes. Cependant, peut-être que si quelqu'un recherche simplement des adresses IP de spam, cela pourrait leur être utile. Dans ce cas, il peut être plus avantageux de disposer simplement d'une page répertoriant les adresses IP et les domaines dans un tableau avec différentes "pages" pour chaque catégorie (tentatives de piratage, spammeurs et robots furtifs). Cette page pourrait être liée à la place. Si vous souhaitiez toujours vous en tenir aux liens ci-dessous, je dirais que la méthode aléatoire fonctionne mieux, car ne voir qu'une petite section statique à chaque fois que la visite du site devient ancienne. Si vous deviez prendre l'approche au hasard, un maximum de 5 serait nécessaire, je dirais.

  • Vitesse de téléchargement : Je doute sincèrement que 50-100 liens sur une page l'affecterait à peine ...

  • Google : Comme pour tout, Google semble répondre qu'il devrait être optimisé davantage pour les utilisateurs que pour les moteurs de recherche. Ils disent aussi que 100 est suggéré, mais ce n'est pas une limite stricte. Matt Cutts même se dit que:

    Ces jours-ci, Google indexera plus de 100 000 pages, mais il reste néanmoins une bonne raison de recommander de conserver moins d’une centaine de liens: l’expérience utilisateur. Si vous affichez bien plus de 100 liens par page, vous pourriez submerger vos utilisateurs et leur donner une mauvaise expérience. Une page peut vous sembler intéressante jusqu'à ce que vous mettiez votre "chapeau d'utilisateur" et que vous voyiez à quoi elle ressemble pour un nouveau visiteur.

2
Anonymous

Mes principales préoccupations sont l’UX, la vitesse de téléchargement et enfin Gaggle.

oups ... je voulais dire giigle, ou peut-être googoogaagaagle.

Ok, revenons aux vrais problèmes.

Pour moi, avoir un nombre ridiculement énorme de liens sur une seule page peut entraîner un léger ralentissement, car lorsqu'un robot scanne une page, chaque octet est téléchargé depuis le serveur et chaque lien de taille minimale nécessite 16 octets avec un texte d'ancrage. exclu. Par exemple:

<a href=" "></a>

Si vous avez 500 liens, alors 8 Ko sont utilisés uniquement pour le code. Vous devez essayer d’avoir un bon ratio code/texte sur votre site Web afin que les moteurs de recherche pensent que vous avez du contenu plutôt que des techniques de black-hat sur le site. Cela signifie que si vous utilisez les liens 500, vous devez créer près de 2 000 caractères de texte que les utilisateurs peuvent voir sans ajouter de code HTML supplémentaire pour respecter un rapport code/texte de 15%.

Donc, pour moi personnellement, il n'y a pas de nombre magique sur le nombre réel de liens auxquels on devrait se limiter, mais si je dois définir un minimum absolu, je choisirais deux. Un pour une page de politique de confidentialité et l'autre pour la page "section suivante".

Plus vous avez de liens avec d'autres balises HTML sur le site, plus vous devez télécharger d'octets.

Bonus Q: Si vous aviez le choix de créer des liens à partir d'une requête aléatoire (et oui, je peux le faire) ou d'une centaine de personnes environ (en utilisant la limite), que préféreriez-vous/conseiller et pourquoi? Encore une fois, j'ai une idée en tête (encore une fois, cueillie). Y at-il quelque chose de définitif à cet égard également?

Il vaut mieux aller linéaire et prendre les 100 premiers dans 99% des cas, car la lecture des données est simple et l'ordinateur n'a pas à utiliser de cycles d'horloge supplémentaires pour déterminer des nombres aléatoires et reconstituer des lignes de données aléatoires. . Si vous devez choisir une méthode aléatoire, effectuez au moins toutes les opérations de la base de données en mémoire sans permuter les modifications.

1
Mike