On va être direct. Beaucoup de plans d’action GEO qui circulent en ce moment sont des documents théoriquement corrects et pratiquement inexécutables. Sixième phase, douzième mois, quatre-vingt-deux points à cocher. Sur le papier, c’est exhaustif. Dans la réalité d’une équipe avec un budget humain et financier limité, c’est une liste qui finit dans un dossier qu’on ne rouvre pas.

Ce plan est construit différemment. Il part du terrain — de ce qu’on a réellement vu fonctionner en travaillant sur des sites dans des secteurs variés, face à des moteurs IA qui évoluent vite et pas toujours de façon prévisible. Certaines phases sont longues parce qu’elles sont difficiles. D’autres sont courtes parce que la complexité est souvent surestimée. Et quelques points que vous trouverez dans d’autres checklists ont été supprimés ici parce qu’ils ne changent rien dans la pratique.

Avant de commencer : deux vérifications qui décident de tout

Avant de toucher au contenu, au schema, ou à quoi que ce soit d’autre, vérifiez deux choses dans votre robots.txt.

D’abord, est-ce que vous bloquez GPTBot, ClaudeBot ou PerplexityBot — intentionnellement ou par erreur ? Ça arrive plus souvent qu’on ne le croit, souvent en héritage d’une règle Disallow: / appliquée trop large lors d’une migration. Ouvrez les logs serveur des 30 derniers jours et cherchez ces user-agents. Si vous ne les voyez pas du tout, c’est soit qu’ils ne crawlent pas encore votre site (moins probable), soit que vous les bloquez (plus probable). Corrigez avant tout le reste.

Ensuite : votre contenu stratégique est-il rendu côté serveur, ou côté client en JavaScript ? Les crawlers IA lisent le HTML brut. Si vos pages clés n’existent pas dans ce HTML sans exécution JS, vous optimisez pour un public qui ne peut pas vous lire. Testez avec curl -A "GPTBot" [votre-url] et regardez si le contenu est là. Si non, SSR ou prerendering sur les pages prioritaires — avant toute optimisation de contenu.

Phase 1 — Ce que les crawlers voient (et ce qu’ils ratent)

Performance technique. Mesurez les Core Web Vitals sur un échantillon de 20 à 30 pages représentatives via PageSpeed Insights et le Chrome UX Report. Les seuils critiques : LCP au-delà de 2,5 secondes, CLS au-delà de 0,1. Ne cherchez pas à tout corriger en même temps. Priorisez les pages stratégiques — pages de services, articles de référence, pages auteur — et traitez les images en premier : compression WebP, lazy loading, dimensions déclarées explicitement dans le HTML. C’est là que se trouvent 60 à 70 % des gains sur la plupart des sites.

Le fichier llm.txt. Ce point reste peu connu et encore expérimental, mais mérite d’être fait maintenant pendant que c’est simple. À la racine du site, créez un fichier llm.txt qui explique en 150 mots ce que fait votre organisation, liste les 5 à 7 pages les plus utiles avec leurs URLs complètes, et précise comment vous souhaitez être cité. C’est l’équivalent du robots.txt pour les modèles de langage — un signal d’intention que certains moteurs commencent à lire.

Schema.org au niveau organisation. Déployez un bloc Organization complet en JSON-LD sur toutes les pages : nom légal, logo, URL, coordonnées, profils sociaux. Ce n’est pas nouveau. Ce qui l’est, c’est l’importance de la cohérence entre ce schema et ce que disent vos profils Wikidata, Crunchbase et annuaires sectoriels. Le NAP (Name, Address, Phone) doit être identique partout, au caractère près. Une divergence entre ces sources crée une ambiguïté d’entité que les LLMs résolvent en choisissant la source qu’ils considèrent la plus fiable — rarement votre site.

Phase 2 — Architecture et clusters thématiques

Posez-vous une question honnête : si quelqu’un demandait à ChatGPT « qui fait autorité sur [votre sujet principal] en France ? », est-ce que votre site a une chance d’être mentionné ? Si la réponse est non ou peut-être, c’est un problème d’architecture avant d’être un problème de contenu.

L’audit de couverture thématique. Cartographiez ce que votre site couvre réellement. Pas ce que vous pensez couvrir — ce que Google et les LLMs voient quand ils crawlent l’ensemble. Des topics abordés superficiellement dans une sous-section d’un article de 800 mots ne constituent pas une couverture. Identifiez 3 à 5 sujets sur lesquels vous avez une légitimité réelle et sur lesquels vous pouvez produire quelque chose de substantiel.

La structure cluster. Pour chaque sujet prioritaire : une page pilier qui couvre le terrain complet (entre 2 500 et 4 000 mots selon la profondeur du sujet), accompagnée de 6 à 10 pages satellites qui explorent chacune un aspect précis. Le maillage entre ces pages n’est pas optionnel — c’est ce qui transforme une collection d’articles isolés en un réseau sémantique que les crawlers peuvent modéliser. Liez la pilier vers toutes les satellites, chaque satellite vers la pilier et vers 2 ou 3 autres satellites pertinentes. Utilisez des anchor texts descriptifs, pas des « cliquez ici ».

Person schema pour les experts. Si vous avez des experts identifiables dans l’organisation, créez leurs profils auteur avec un balisage Person complet et une bio réelle de 200 à 250 mots. Les LLMs attribuent du crédit à des entités humaines reconnues. Un article signé « Admin » avec un placeholder photo n’existe pas dans leur modèle de confiance.

Phase 3 — Le contenu qui fait vraiment la différence

Il y a un raccourci que beaucoup de sites tentent et qui ne marche pas : réécrire de l’existant pour le rendre « GEO-compatible ». Ça peut fonctionner à la marge. Ce qui construit vraiment l’autorité, c’est du contenu que personne d’autre ne peut publier parce qu’il vient de vous.

La recherche originale. Un sondage, une analyse de données internes, une étude longitudinale, un benchmark sectoriel. Peu importe le format — ce qui compte, c’est que les chiffres vous appartiennent. Les LLMs cherchent des sources primaires à citer. Si vous produisez une étude avec une méthodologie transparente et des résultats chiffrés, vous devenez citablement. Commencez petit : 150 répondants sur votre liste email ou votre LinkedIn, une question stratégique, un rapport d’une page. Ce n’est pas un projet de six mois, c’est un projet de trois semaines si vous vous y mettez.

Les pages de référence statique. Une page « Statistiques [votre secteur] 2026 » mise à jour trimestriellement. Un glossaire de 40 à 50 termes réellement définis — pas des ébauches de deux lignes. Un guide comparatif des approches ou solutions disponibles avec des critères clairs. Ces pages ont une longévité que les articles d’actualité n’ont pas. Elles accumulent des liens, elles sont citées, et les LLMs les mémorisent parce qu’elles répondent à des questions que les utilisateurs posent souvent.

Les études de cas. Documentez ce que vous avez fait pour des clients, avec des chiffres, une méthodologie, et les limites de la démarche. La honnêteté sur les limites est un signal de crédibilité fort — c’est ce qui distingue une étude de cas réelle d’un témoignage commercial. Visez 1 500 à 2 000 mots par cas. Six cas bien documentés valent plus que vingt témoignages d’une phrase.

Phase 4 — L’autorité distribuée : être cité ailleurs pour exister ici

Les LLMs construisent leur représentation d’une organisation à partir de tout ce qui circule sur elle dans leur corpus d’entraînement, pas seulement à partir de son site. Ça veut dire que si vous n’existez que sur votre propre domaine, vous partez avec un handicap structurel.

Identifier vos sources cibles. Ouvrez ChatGPT, Perplexity et Claude. Posez des questions sur votre domaine d’expertise. Regardez quels sites, publications, blogs ou forums sont cités dans les réponses. Ce sont vos cibles prioritaires pour une présence externe — pas les sites avec le meilleur Domain Authority selon Ahrefs, mais les sites que les LLMs considèrent déjà comme autorité dans votre espace.

Le pipeline de relations presse. Un communiqué par trimestre sur une initiative réelle (une recherche, un partenariat, un cas client marquant). Dix à quinze journalistes et éditeurs sectoriels identifiés et contactés personnellement, pas via une liste achetée. L’objectif n’est pas le volume de mentions — c’est la qualité des sources qui vous citent. Une mention dans une publication que les LLMs lisent vaut cent fois une mention dans un site agrégateur sans trafic organique.

La présence communautaire authentique. Reddit, Quora, forums spécialisés. Deux ou trois réponses par semaine, substantielles, qui apportent de la valeur sans pitcher. Quand votre ressource est vraiment pertinente pour répondre à une question, citez-la — mais uniquement dans ce cas. Les communautés détectent et sanctionnent le spam déguisé en aide, et les LLMs apprennent à partir de ces discussions. Une présence authentique sur la durée construit une empreinte que rien d’autre ne peut simuler.

Phase 5 — La fragmentation des surfaces : une opportunité sous-exploitée

Les utilisateurs ne cherchent plus seulement sur Google. Ils demandent à ChatGPT, à Perplexity, à Claude, à Gemini. Ils regardent des vidéos YouTube sur des sujets complexes. Ils lisent des threads Reddit avant de prendre une décision. Votre contenu doit exister dans ces espaces — pas sous forme de publicité, mais sous forme de valeur.

YouTube d’abord, si le sujet s’y prête. Les tutoriels de 10 à 15 minutes qui expliquent une méthodologie pas à pas restent le format le plus efficace. Une transcription complète intégrée via YouTube double la valeur SEO de la vidéo. Si vous avez déjà des guides écrits, la moitié du travail de scripting est déjà fait.

LinkedIn pour les insights opérationnels. Pas des annonces de service. Des analyses courtes (150 à 250 mots) sur des observations de terrain, des résultats contre-intuitifs, des erreurs commises et ce qu’elles ont appris. Le format carrousel fonctionne pour les données — une visualisation par slide, huit à dix slides, une conclusion actionnable.

La newsletter comme canal souverain. Un envoi mensuel positionné comme une synthèse experte, pas une lettre d’information produit. Deux ou trois insights originaux, une tendance analysée avec des données, deux questions reçues et répondues. L’objectif est de construire un canal direct qui ne dépend d’aucun algorithme — parce que dans un environnement où les surfaces de visibilité se fragmentent vite, avoir une audience qui vous lit directement est un actif rare.

Le plan 12 mois — ce qui se fait dans quel ordre

Voici la séquence. Les durées sont indicatives — une organisation de 2 personnes prendra deux fois plus de temps sur certains points, et c’est normal.

Mois 1. Audit complet : technique (Core Web Vitals, robots.txt, rendering JS), contenu (couverture thématique, gaps, pages orphelines), présence externe (AI Presence Rate initial sur 40 requêtes testées sur ChatGPT, Perplexity et Claude, avec screenshot de chaque résultat). Ne passez pas à la suite sans cette baseline. Vous ne pouvez pas mesurer ce que vous n’avez pas documenté au départ.

Mois 2-3. Fondations techniques : robots.txt corrigé, llm.txt créé, SSR ou prerendering implémenté sur les pages stratégiques, Organization schema déployé, Person schema créé pour les experts identifiés, performances images réglées. C’est ici que vous fermez les fuites avant d’ouvrir les robinets.

Mois 4-5. Premier cluster thématique : page pilier + 6 à 8 pages satellites + maillage interne complet + schema Article et BreadcrumbList sur chaque page. En parallèle, lancement de la première initiative de recherche originale. Elle n’a pas besoin d’être complexe — une enquête de 150 répondants sur une question sectorielle pertinente suffit pour produire un rapport citeable.

Mois 6-7. Assets de référence : page statistiques mise à jour, glossaire industry, 2 à 3 guides approfondis qui utilisent les données de la recherche originale. Signature experte activée sur tout le contenu stratégique. C’est la période où vous créez les pages que vous voudrez voir citées dans dix ans.

Mois 8-9. Digital PR : publication du rapport de recherche avec landing page dédiée, communiqué distribué, outreach ciblé vers 15 sources identifiées lors de l’interrogation des plateformes IA. Début de la présence communautaire sur 2 à 3 plateformes. Ici la patience est obligatoire — les résultats en termes de citations IA apparaissent avec un décalage de 4 à 8 semaines après la publication.

Mois 10. Deuxième cluster thématique, appliquant exactement la même méthode que le premier. Ajout de 3 à 4 études de cas détaillées avec structure standardisée.

Mois 11. Expansion omnicanale : adaptation du contenu pour YouTube, carrousels LinkedIn, newsletter mensuelle lancée. L’objectif n’est pas d’être partout — c’est d’être sur les 3 à 4 surfaces où votre audience prend ses décisions.

Mois 12. Bilan complet. Comparez le AI Presence Rate mois 1 vs mois 12. Mesurez la croissance des requêtes brandées en Search Console. Quantifiez les backlinks gagnés depuis les sources cibles. Identifiez les 2 à 3 initiatives à plus fort impact et doublez dessus en année 2. Le reste, optimisez ou abandonnez selon les données — pas selon les intuitions.

Ce que ce plan ne peut pas faire à votre place

La question du taux d’exécution. On a vu des organisations allouer six semaines à construire ce type de plan et six mois à ne pas l’exécuter. Le blocage n’est jamais stratégique — il est opérationnel. Qui écrit la page pilier ? Qui identifie les experts et crée leurs profils ? Qui gère les relations presse ?

Répondez à ces questions avant de valider le plan. Assignez une personne responsable par phase, avec une deadline. Sans ça, une checklist reste une checklist.

Le GEO n’est pas une discipline à part qui s’ajoute au SEO. C’est une évolution du même raisonnement : être compris et cité par les systèmes qui synthétisent l’information pour les utilisateurs. Les outils changent. La logique, elle, reste celle qu’on appliquait déjà : autorité, pertinence, accessibilité. Ce plan est simplement calibré pour les moteurs d’aujourd’hui.