web-dev-qa-db-fra.com

Ramifications légales de la vérification constante d'un site Web

Disons que vous écrivez un script qui vérifie une URL toutes les quelques secondes, mais sur le site Web, un compteur indique le nombre de fois qu'une personne visite le site.

En effet, si vous consultez le site, ce nombre augmente.

Multipliez-le plusieurs fois par minute pendant combien de temps le script est utilisé, cela pourrait augmenter considérablement.

Cela ne DOS pas le site ou quelque chose comme ça.

Existe-t-il des conséquences juridiques pour la rédaction d'un script permettant de consulter ce site s'il s'agit d'un effet secondaire fortuit?

2
Bigbob556677

Comme mentionné par Stephen Ostermiller, vous avez plusieurs options.

1. Demander au propriétaire

Demandez directement au propriétaire du site. Bien sûr, cela pourrait être une pensée effrayante ... mais je pense que c'est la meilleure façon de marteler le site avec autant de visites consécutives.

2. Vérifiez les documents juridiques du site

Vous trouverez probablement une page avec les conditions d'utilisation, les conditions d'utilisation, etc.

Malheureusement, dans ces documents, les informations sont le plus souvent assez générales. De temps en temps, cependant, il y a des détails utiles, surtout si ce document est très long ... (Ouais, ça marche.)

3. robots.txt

Puisque vous parlez de lancer un script, cela signifie que vous utilisez un robot. Vous devez lui attribuer un nom spécifique qui ne changera pas, vérifier le robots.txt et vous assurer que votre robot est autorisé à consulter le site.

Ainsi, si l'utilisateur ne l'aime pas et voit le nom de votre robot dans son journal, il peut ajouter une ou deux lignes à son fichier robots.txt pour vous bloquer.

4. Problèmes de vitesse

Une chose que Google dit à propos de son robot (et je suis sûr que d’autres le font aussi) est qu’ils feront le nécessaire pour éviter d’inonder votre site Web d’accès qui ralentiraient votre site.

Je ne sais pas du tout comment ils ont implémenté cela, mais je peux imaginer qu'ils ont un moyen de savoir à quelle vitesse un serveur répond à l'une de leurs demandes et, si d'autres réponses sont lues plus lentement, elles ralentissent probablement par la suite.

Car franchement, frapper la même URL toutes les quelques secondes sur un serveur sera probablement perçu comme une attaque. Lorsqu'un robot, comme dans le cas d'une araignée, vérifie un site Web, il tente au moins de vérifier toutes les pages du site, pas une seule page.

5. Compteurs ...

Cela ressemble à une technologie très ancienne! Un bon compteur est un compteur qui ne compte pas au moins les répétitions de la même adresse IP lorsque les occurrences sont très proches les unes des autres (c’est-à-dire que vous sauvegarderiez l’IP pendant quelques minutes et mettez à jour la date à laquelle il doit être supprimé si le utilisateur ré-accéder au site). Cela étant dit, vous ne devriez pas trop vous inquiéter d'un problème spécifique.

Les systèmes plus récents utilisent JavaScript, ce qui signifie que la plupart des robots ne généreraient pas d'augmentation du compteur, car la plupart des robots n'exécuteraient jamais ce code JavaScript. Tant pis...

4
Alexis Wilke