web-dev-qa-db-fra.com

Qu'est-ce que l'URL `/ & wd = test` demandée à mon site, probablement par des bots?

Je vois des journaux d’erreurs sur un site Web parce que quelque chose a tenté d’accéder:

example.com/&wd=test

hTTP_REFERER est http://www.baidu.com/s?wd=FQQ

l'erreur vient de ASP.net:

Une valeur Request.Path potentiellement dangereuse a été détectée à partir du client (&)

Le caractère & n'est pas autorisé dans cette position, il est autorisé uniquement après le caractère ?.

Je me demande pourquoi ces succès se produisent. Est-ce une fonctionnalité de Baidu ou est-ce de mauvais robots?


UPDATE: J'ai vérifié certains des ips à l'aide de https://www.abuseipdb.com et je vois que d'autres sites Web signalent ces ips comme des attaques web,

voici des exemples:

https://www.abuseipdb.com/check/111.206.36.14https://www.abuseipdb.com/check/111.206.36.1

la plupart des rapports sur le &wd=test mais il y a aussi d'autres choses

3
Omu

C'est une demande d'un genre de Baidu searchbot. Baidu est un moteur de recherche chinois. Comme Google a son propre moteur de recherche, Googlebot, Baidu a le sien. Il n'y a rien de suspect et de dangereux sur cette demande.

Si vous n’aimez pas cela, d’un point de vue statistique, vous pouvez le bloquer avec votre fichier robots.txt, comme

#Baiduspider
User-agent: Baiduspider
Disallow: /

Ou bloquez-le avec la configuration du serveur, comme sur Apache avec:

<IfModule mod_rewrite.c>
    RewriteCond %{HTTP_USER_AGENT} baidu [NC]
    RewriteRule .* - [F,L]
</IfModule>
2
Evgeniy

Il est fort probable que Baidu soit juste bizarre et que ses robots envoient du trafic vers des URL non valides.

Si Baidu vous envoie du trafic, même pour des paramètres étranges tels que celui-là, je ne commencerais pas nécessairement à bloquer leur bot. Mais vous les bloquez si vous voulez dans votre fichier robots.txt et, comme Baidu est un robot d'exploration légitime, ils devraient probablement respecter votre fichier robots.txt. Baidu est un moteur de recherche chinois majeur.

Les URL non valides auxquelles ils envoient du trafic ne devraient poser aucun problème pour votre site, sauf si quelque chose sur votre serveur entraîne des erreurs à cet égard. Très probablement, le visiteur recevra simplement une page non valide.

Vous pouvez les enlever? paramètres dans votre fichier htaccess et 301 rediriger vers la page correcte. Si vous voulez faire cela, lancez simplement une recherche Google pour "tout supprimer après htaccess stackoverflow". Supprimez tous les caractères après le point d'interrogation, puis htaccess supprime simplement le point d'interrogation lui-même. Cela gardera l'utilisateur sur la page qui était prévue.

1
Michael d