web-dev-qa-db-fra.com

Garder les fichiers privés sur Internet (mot de passe .htaccess ou mot de passe software / php / wordpress)

On m'a demandé il y a quelque temps de configurer un serveur de telle sorte que seuls les utilisateurs authentifiés puissent accéder aux fichiers. C'était comme un serveur de test permettant aux clients de voir les sites WIP. Plus récemment, je souhaite faire quelque chose de similaire pour certains de mes fichiers. Tho ils ne sont pas très confidentiels, je souhaite que je sois le seul à le visionner.

J'ai pensé faire la même chose

  1. Créer un fichier robots.txt

    User-agent: *
    Disallow: /
    
  2. Installez une protection par mot de passe, .htpasswd semble être une très mauvaise façon de le faire. Il me demandera même lorsque je me connecte au FTP. Je me demande si une méthode logicielle telle que les publications protégées par mot de passe dans Wordpress permettra de verrouiller le public et de masquer le contenu des moteurs de recherche. Ou bien un script PHP fabriqué par vous-même fera-t-il l'affaire?

2
Jiew Meng

La méthode robots.txt ne vous apportera pas une réelle sécurité, car non seulement les bots ne doivent pas l’honorer, mais il est toujours possible que le contenu soit indexé de toute façon, ce qui est prouvé. De plus, si quelqu'un sait où se trouve le contenu, robots.txt ne fait rien pour empêcher quelqu'un d'accéder à ce contenu.

L’authentification de base, qui est ce qu’est .htpasswd, gardera les bots et tous ceux que vous ne voulez pas entrer. Mais c’est maladroit et si vous accédez au contenu à partir d’un ordinateur public, vous devez vous assurer de fermer le navigateur sinon vous pourrez y accéder sans vous reconnecter.

Les publications protégées par mot de passe, comme dans Wordpress, nécessitent la création de votre propre système de connexion et d’authentification. C'est très flexible mais cela demande évidemment plus de travail de votre part.

L'authentification de base fera exactement ce dont vous avez besoin et rapidement. Si vous êtes la seule personne à essayer d’accéder aux fichiers, c’est probablement la meilleure solution. Mais si vous envisagez de développer qui peut accéder à ce contenu, vous souhaitez créer un système de connexion de base pour vous-même et il y a beaucoup de tutoriels disponibles pour le faire (au moins en PHP). Utilisez certainement le fichier robots.txt et je placerais également un fichier .htaccess qui utilise le tag x-robots pour bloquer également les robots car il est plus efficace:

Header set X-Robots-Tag: noindex
1
John Conde

Jetez un coup d'œil à mod_access - à partir de votre description de ce dont vous avez besoin, une liste blanche IP devrait suffire.

1
danlefree