web-dev-qa-db-fra.com

Les recherches internes doivent-elles être effectuées par GET à des fins de référencement?

J'ai un site avec des produits, qui peuvent être recherchés en utilisant un formulaire de recherche compliqué, avec pas mal de champs de saisie. J'envoie les données par POST, sur la même page, afin de pouvoir répertorier tous les produits dans l'URL: /products/ et la recherche reste dans la même page /products/. Pour les besoins du référencement, de l'indexation et de la révision Google Analytics, devrais-je utiliser GET à la place, afin d'avoir une URL assez longue:

/products/?category=book&search_title=Andromeda%20Strain&Author=Mich%20Chric%&order_by=price&sort=desc

En outre, il est évident que l’URL ci-dessus pourrait dépasser les 256 caractères , voire davantage avec les chaînes Unicode.

Mon consultant en référencement me dit que je pourrais insérer un code dans le formulaire tout en conservant la méthode POST, mais je lisais un peu et je suis très confus.

2
Cesar

Bien que toutes les URL de résultats de recherche internes ne contiennent aucune information unique, elles sont, à des fins de référencement, non pertinentes et nuisibles.

En effectuant une recherche interne avec GET, vous créez des URL de résultats de recherche, que vous devez ensuite exclure de l'indexation (et de l'analyse, en raison du dépassement du budget d'analyse pour les URL inutiles).

Mais en utilisant POST sur la recherche interne, vous ne disposez que d'une seule URL de recherche, telle que example.com/search.html, et vous ne rencontrez aucun problème lié au référencement avec des millions de pages de résultats de recherche.

PS: En fait, exclure l'URL des résultats de recherche de l'indexation et de l'exploration n'est pas si grave, vous aurez besoin de quelques astuces:

  • créer une propriété de console de recherche supplémentaire pour le répertoire / search /?q=term
  • appliquez l'intensité d'analyse la plus lente possible
  • placer dans le répertoire racine robots.txt avec Disallow:/q=*
  • placez dans le répertoire/search/un fichier htaccess contenant Header set X-Robots-Tag "noindex, nofollow"

Mais en utilisant POST vous n'en avez pas du tout besoin.

Conclusion: Utilisez GET, uniquement si vous ne pouvez pas utiliser POST.

PPS: dans l'intervalle, je pense qu'après avoir pesé les avantages de POST et de GET, je préférerais pour le moment obtenir GET. Dans de nombreux cas difficiles, j’ai réalisé à quel point la valeur, en particulier pour les entreprises électroniques, de l’existence d’URL uniques de pages de résultats de recherche, pouvant être marquées d’un signet, partagées et disparues avec l’approche POST. Et tous les problèmes de référencement négatifs de l’approche GET peuvent être (pas facilement, mais assez clairement) divisés par zéro

3
Evgeniy

Les résultats de recherche internes ne doivent pas être indexés. Google Webmaster Guidelines Etat:

Utilisez le fichier robots.txt pour empêcher l’exploration des pages de résultats de recherche ou d’autres pages générées automatiquement qui n’ajoutent pas beaucoup de valeur aux utilisateurs provenant de moteurs de recherche.

Matt Cutts a pesé à ce moment-là discuté précédemment sur le groupe d’aide Webmaster de Google.

J'aime assez le point fait dans ceci fil de Webmaster World :

Le problème n'est pas la "convivialité" de l'URL, c'est le contenu de ces pages de résultats de recherche. De nombreux sites ont bloqué leur trafic en exposant un grand nombre de résultats de recherche de site à Google. Le contenu dupliqué à gogo, y compris un grand nombre de pages "sans résultats", peut submerger votre bon contenu.

Essayez donc de vous en tenir à des pages de catégories et de produits faciles à explorer. Oubliez entièrement les recherches internes de l'indexation.

3
Andrew Lott