📌 Ce que tu vas découvrir dans cet article :
Tu vas comprendre à quoi servent les fichiers robots.txt
et sitemap.xml
sur ton site WordPress, et comment bien les configurer pour améliorer ton référencement naturel. Ces deux éléments sont essentiels pour guider les robots de Google : l’un leur indique ce qu’ils peuvent explorer ou non, l’autre leur présente la structure de ton site. Une gestion optimisée de ces fichiers t’aidera à mieux indexer tes pages, à éviter les contenus inutiles dans les résultats de recherche, et à renforcer ton SEO local (Marne-la-Vallée, Seine-et-Marne, Paris). Prêt à mieux contrôler ce que Google voit de ton site ?
À quoi sert le fichier robots.txt ?
Le fichier robots.txt
est un fichier texte situé à la racine de ton site. Il sert à indiquer aux robots des moteurs de recherche les pages ou répertoires qu’ils peuvent ou ne peuvent pas explorer. Il ne bloque pas l’indexation, mais l’exploration. C’est une directive, pas une barrière : les robots peuvent parfois choisir de ne pas la respecter.
Bien configuré, il permet d’éviter le crawl inutile de sections sensibles (back office, scripts, URL avec paramètres, etc.), ce qui libère du budget crawl pour les pages vraiment utiles à ton référencement naturel.
Exemple basique d’un fichier robots.txt :
User-agent: * Disallow: /wp-admin/ Allow: /wp-admin/admin-ajax.php
Dans cet exemple, on empêche les robots d’accéder à l’admin WordPress, sauf à admin-ajax.php
.
Autres règles utiles à connaître :
Disallow: /recherche/
– pour éviter l’indexation des résultats de recherche internesDisallow: /*?orderby=
– pour bloquer les filtres de tri inutiles dans les e-commercesSitemap: https://monsite.fr/sitemap_index.xml
– pour déclarer directement ton sitemap dans le fichier
Et le fichier sitemap.xml ?
Le sitemap XML agit comme une carte GPS pour les robots de Google. Il leur présente une liste structurée de toutes les URL que tu veux faire indexer, avec des infos utiles comme leur priorité, leur fréquence de mise à jour, ou encore la dernière date de modification.
Sur WordPress, si tu utilises Yoast SEO, Rank Math, SEOPress ou un plugin similaire, ton sitemap est généré automatiquement. Il est souvent découpé en plusieurs sous-sitemaps : articles, pages, catégories, etc.
Pourquoi soumettre un sitemap dans la Search Console ?
En soumettant ton sitemap à Google Search Console, tu lui indiques de façon proactive l’ensemble des contenus à crawler. Cela améliore la vitesse d’indexation et t’aide à détecter les erreurs de pages non accessibles ou non conformes.
👉 URL typique de sitemap WordPress avec Yoast : /sitemap_index.xml
Comment créer ou modifier ces fichiers sur WordPress ?
Tu as deux options principales pour gérer ces fichiers :
Via une extension SEO
- Yoast SEO : Menu SEO > Outils > Éditeur de fichiers pour robots.txt
- Rank Math : SEO > Réglages généraux > robots.txt
- SEOPress : SEO > Avancé > robots.txt & sitemap
Ces plugins permettent aussi d’activer/désactiver la génération automatique du sitemap, et de configurer le type d’URL incluses dedans (auteurs, archives, produits, etc.).
Manuellement via FTP
Tu peux également créer un fichier robots.txt
via ton logiciel FTP (comme FileZilla) à la racine de ton site. Attention à ne pas écraser les versions générées automatiquement par WordPress si tu mixes les deux méthodes.
Pourquoi ces fichiers sont cruciaux pour ton SEO local ?
Un bon fichier robots.txt permet d’éviter que des pages secondaires ou sans valeur ne concurrencent ton contenu local dans l’index de Google. C’est une façon de “nettoyer” ton référencement pour concentrer l’attention sur ce qui compte.
Un sitemap clair, à jour, et bien hiérarchisé, indique à Google quelles pages méritent d’être visitées régulièrement. C’est particulièrement utile si tu cibles une clientèle locale à Marne-la-Vallée, Seine-et-Marne ou Paris.
Conseil local :
Inclue dans ton sitemap des pages locales bien optimisées : pages par zone, pages de service avec ancrages géographiques, articles de blog avec référencement local intégré.
Questions fréquentes sur robots.txt et sitemap.xml
Non, il bloque seulement l’exploration des pages. Pour empêcher l’indexation, il faut utiliser la balise meta “noindex” ou gérer cela via l’outil Search Console.
Si tu utilises Yoast, Rank Math ou SEOPress, il est accessible à l’adresse : /sitemap_index.xml
. Exemple : https://monsite.fr/sitemap_index.xml
Oui, via les extensions SEO comme Yoast ou Rank Math. Tu peux aussi le créer manuellement via FTP si tu préfères une gestion directe.
Ce n’est pas obligatoire, mais recommandé. Cela permet aux robots d’identifier plus rapidement ton sitemap.
Autant que nécessaire. Un sitemap XML peut contenir jusqu’à 50 000 URL, mais il est recommandé de les diviser par type de contenu (articles, pages, etc.).
🔗 Pour aller plus loin
📊 Pour analyser ton trafic, pense à installer Google Analytics 4 sur ton site.
⚡ Et découvre aussi 5 astuces simples pour accélérer ton site WordPress.
🔍 En complément, maîtrise les différences entre SEO on-page et off-page pour une stratégie complète.
👋 Tu veux qu’on vérifie ensemble ton fichier robots.txt et ton sitemap ? Contacte MD ECOM, on te guide avec plaisir.