web-dev-qa-db-fra.com

"Robots.txt bloque-t-il les pages importantes?" dans la console de recherche concernant le dossier statique

Voici le contenu de mon fichier robots.txt:

User-agent: *
Disallow: /static/*
Disallow: /templates/*
Disallow: /translations/*
Sitemap: https://xx.xxx.com/sitemap.xml

Cependant, je ne sais pas pourquoi je reçois cette erreur dans la console de recherche Google:

Is robots.txt blocking important pages? Some important page is blocked by robots.txt.

Peut-être en raison du dossier statique? La question est donc, dois-je supprimer le dossier statique des robots?

https://example.com/static/css/A.landing.css.pagespeed.cf.ScWDdlA8KO.css Style Sheet Blocked High robots.txt Tester

2
anvd

Vous ne devriez pas empêcher Googlebot d'accéder à votre CSS.

2
grg