Glossaire GEO & IA
le dictionnaire de référence
Plus de 120 termes définis : Generative Engine Optimization, LLM, IA générative, outils et stratégies. La ressource la plus complète en français.
Essayez un autre terme ou parcourez les catégories.
AEO (Answer Engine Optimization)
Discipline précurseur du GEO, l’AEO optimise le contenu pour répondre directement aux questions des utilisateurs. L’objectif : apparaître dans les featured snippets, les réponses vocales et les panneaux de connaissances. C’est le pont entre le SEO traditionnel et le GEO moderne.
Agent IA
Programme autonome basé sur un LLM capable de planifier et exécuter des tâches complexes en enchaînant des actions (navigation web, exécution de code, appels API) sans intervention humaine continue. Ex. : GPT-4o avec plugins, Devin, AutoGPT.
AI Overview (AIO)
Fonctionnalité de Google qui génère une réponse synthétique affichée en haut des SERP. Produite par IA à partir de sources sélectionnées, l’AIO est l’un des principaux enjeux du GEO : être cité comme source.
Anthropic
Entreprise américaine d’IA fondatrice de Claude. Spécialisée dans la recherche sur la sécurité des IA (AI safety), elle développe des LLM constitutionnels visant à aligner l’IA sur les valeurs humaines.
Attention (mécanisme d’)
Composant clé de l’architecture Transformer permettant au modèle de pondérer l’importance de chaque token. C’est ce mécanisme qui permet à un LLM de comprendre le contexte et les relations sémantiques entre les mots.
Autorité thématique (Topical Authority)
Niveau de reconnaissance d’une source comme référence dans un domaine précis. Les LLM privilégient les sites couvrant exhaustivement un sujet plutôt que ceux qui l’effleurent. En GEO, construire une autorité thématique est fondamental pour être cité.
Autorisation crawlers IA
Configuration explicite du robots.txt autorisant les robots IA (GPTBot, ClaudeBot, PerplexityBot, Anthropic-AI, Googlebot). Sans cette autorisation, votre contenu peut être invisible des LLM qui respectent le fichier robots.
Bard
Ancien nom de l’assistant IA de Google, renommé Gemini en février 2024. Basé sur les modèles LaMDA puis PaLM, il a été l’un des premiers concurrents directs de ChatGPT.
Biais de confirmation (IA)
Tendance d’un LLM à privilégier des informations confirmant des patterns vus en entraînement, même si des données contradictoires existent. Important pour anticiper comment les LLM présentent une marque.
Bing Chat / Microsoft Copilot
Assistant conversationnel de Microsoft intégré à Bing, propulsé par GPT-4, rebaptisé Microsoft Copilot en 2023. Nécessite une stratégie GEO adaptée car il indexe via Bing.
Bot crawling (crawl IA)
Processus par lequel les robots des moteurs IA parcourent et indexent le web. GPTBot (OpenAI), ClaudeBot (Anthropic), PerplexityBot et GoogleBot sont les principaux agents à autoriser dans le robots.txt.
ChatGPT
Assistant conversationnel d’OpenAI basé sur GPT-4o. L’une des interfaces IA les plus utilisées au monde. Depuis 2024, ChatGPT dispose d’une recherche web en temps réel, rendant l’optimisation GEO cruciale pour y être référencé.
Chunking sémantique
Découpage intelligent du contenu en blocs sémantiques cohérents que les systèmes RAG peuvent traiter et récupérer. Un bon chunking structure le contenu en unités autonomes, augmentant les chances d’être sélectionné comme passage source.
Citation IA
Mention explicite d’une marque, d’un site ou d’un auteur par une IA générative dans sa réponse. En GEO, obtenir des citations est l’objectif central : cela traduit autorité, pertinence et fiabilité aux yeux des LLM.
Claude (Anthropic)
Assistant IA d’Anthropic, disponible en versions Haiku, Sonnet et Opus. Claude se distingue par sa fenêtre de contexte très large (jusqu’à 200 000 tokens) et ses principes d’alignement constitutionnel. Son crawler ClaudeBot indexe le web.
ClaudeBot
Crawler officiel d’Anthropic qui indexe le contenu web pour alimenter Claude. À autoriser dans le robots.txt : User-agent: ClaudeBot / Allow: /.
Clustering thématique
Organisation du contenu en silos thématiques cohérents (page pilier + sous-pages satellites). En GEO, un cluster bien structuré signale aux LLM une couverture exhaustive d’un sujet, renforçant l’autorité thématique.
Contenu généré par IA (AIGC)
Textes, images, vidéos produits automatiquement par un modèle d’IA générative. Google l’accepte si le contenu apporte de la valeur réelle, mais sanctionne la production en masse sans expertise humaine.
Contenu YMYL (Your Money Your Life)
Catégorie de contenus à fort impact (santé, finance, droit) soumis à des critères d’E-E-A-T très stricts par Google et les LLM. Ces contenus requièrent une expertise démontrée et des sources citées.
Context Window (fenêtre de contexte)
Quantité maximale d’information (en tokens) qu’un LLM peut traiter en une seule interaction. GPT-4 Turbo : 128K tokens, Claude : 200K, Gemini 1.5 Pro : 1M+. Les contenus concis sont favorisés car ils consomment moins de tokens.
Conversational Search
Paradigme où l’utilisateur interagit via un dialogue en langage naturel plutôt que des mots-clés isolés. Les contenus GEO doivent adopter une structure Q&R et un vocabulaire naturel pour répondre à ce mode de recherche.
Copilot (Microsoft)
Assistant IA de Microsoft intégré dans Windows, Edge, Bing et Office 365. Basé sur GPT-4, il est l’un des moteurs génératifs majeurs à considérer dans une stratégie GEO ciblant les utilisateurs Microsoft.
Corpus d’entraînement
Ensemble massif de données textuelles sur lesquelles un LLM est entraîné. Les modèles modernes sont entraînés sur des centaines de milliards de tokens issus du web, de livres et de bases de données spécialisées.
Core Web Vitals
Métriques de performance UX de Google (LCP, INP, CLS). Facteur de classement SEO et signal indirect de qualité pour les LLM, qui favorisent les sources rapides et stables.
Crawl budget
Nombre de pages qu’un robot est prêt à crawler dans un laps de temps donné. Une architecture propre et un robots.txt bien configuré optimisent le crawl budget pour les bots IA.
DALL-E (OpenAI)
Modèle de génération d’images d’OpenAI à partir de descriptions textuelles. Intégré à ChatGPT, DALL-E 3 représente l’extension multimodale de l’IA générative au-delà du texte.
Date de coupure (Training Cutoff)
Date à partir de laquelle les données d’entraînement d’un LLM s’arrêtent. Après cette date, le modèle n’a plus de connaissances internes. Le RAG permet de contourner cette limitation.
Deepfake
Contenu médiatique (vidéo, image, audio) généré ou manipulé par IA. Représente un risque majeur de désinformation à l’ère des IA génératives.
DeepL
Service de traduction automatisée basé sur l’IA, connu pour sa qualité linguistique supérieure. Utilisé en GEO pour produire du contenu multilingue optimisé.
DeepSeek
LLM open source développé par une entreprise chinoise, ayant créé une forte surprise en 2025 par ses performances comparables à GPT-4 à moindre coût.
Dense Passage Retrieval (DPR)
Technique de recherche sémantique dense utilisée dans les systèmes RAG. Contrairement à la recherche par mots-clés, le DPR compare des représentations vectorielles pour trouver les passages les plus proches sémantiquement.
Domain Authority (DA)
Score prédictif de la capacité d’un domaine à se classer en recherche organique. Un DA élevé augmente la probabilité d’être cité par les LLM comme source autoritaire.
Données premières (First-Party Data)
Données collectées directement auprès de vos utilisateurs. En GEO, les contenus basés sur des données exclusives (enquêtes, études) sont très cités car ils apportent une information unique.
Données structurées (Structured Data)
Balisage sémantique standardisé (JSON-LD, Microdata) utilisant Schema.org pour décrire le contenu d’une page aux moteurs et aux LLM. Les types Article, FAQ, HowTo, Person sont particulièrement efficaces pour le GEO.
E-E-A-T
Cadre d’évaluation Google (Experience, Expertise, Authoritativeness, Trustworthiness). Adopté par les LLM pour juger la qualité des sources. Un contenu signé par un auteur identifié, avec biographie et liens externes, maximise l’E-E-A-T.
Embeddings (vecteurs)
Représentations numériques (vecteurs mathématiques) de mots, phrases ou concepts permettant aux LLM de mesurer la proximité sémantique. Fondamentaux pour les systèmes RAG : « voiture" et « automobile" auront des embeddings proches.
Entity Salience
Importance relative d’une entité dans un texte, évaluée par les LLM. Plus une entité est saillante (fréquemment mentionnée, associée à des concepts clés), plus elle a de chances d’être citée.
Entité nommée (Named Entity)
Personne, lieu, organisation, produit ou concept que les LLM reconnaissent comme une entité unique. Plus votre marque est reconnue dans le Knowledge Graph, plus elle a de chances d’être citée spontanément.
Featured Snippet
Encadré Google affichant une réponse directe en haut des résultats. Précurseur des AI Overviews, il reste un signal fort de crédibilité pour les LLM qui l’utilisent souvent comme source prioritaire.
Fine-tuning
Ajustement d’un LLM pré-entraîné sur un corpus spécialisé. Différent du RAG : le fine-tuning modifie les poids du modèle, le RAG enrichit les entrées en temps réel.
Freshness Signals
Indicateurs de mise à jour du contenu pris en compte par les LLM pour privilégier les informations récentes. Mettre à jour les articles et afficher une date explicite améliore les signaux de fraîcheur.
Flux RSS
Format de syndication de contenu permettant aux crawlers IA de suivre les nouvelles publications. Un flux RSS actif signale une source régulièrement mise à jour, améliorant les freshness signals.
Gemini (Google)
Famille de LLM de Google (Nano, Flash, Pro, Ultra). Successeur de Bard, il alimente Google AI Overviews et Google Search. Sa fenêtre de contexte (1M+ tokens pour Pro) est l’une des plus grandes du marché.
Gemini Advanced
Version premium de Gemini basée sur Gemini Ultra. Offre des capacités de raisonnement avancées, une longue fenêtre de contexte et des fonctionnalités de création de contenu supérieures.
GEO (Generative Engine Optimization)
Ensemble de stratégies et techniques visant à optimiser un contenu web pour qu’il soit découvert, compris et cité comme source fiable par les moteurs IA (ChatGPT, Perplexity, Google AI Overviews). Le GEO complète le SEO sans le remplacer.
Google AI Overviews
Fonctionnalité de Google Search générant une synthèse IA en tête de page. Lancé progressivement depuis 2024, il capte une part croissante des clics et représente l’enjeu GEO le plus stratégique pour les marques.
GPT (Generative Pre-trained Transformer)
Famille de LLM d’OpenAI : GPT-3.5, GPT-4, GPT-4o, GPT-4.5. GPT-4o (omni) traite texte, images et audio. Moteur de ChatGPT et de nombreux outils tiers.
GPT-4o (omni)
Version multimodale de GPT-4 capable de traiter et générer du texte, des images et de l’audio. Modèle principal de ChatGPT depuis 2024.
GPTBot
Crawler officiel d’OpenAI utilisé pour indexer le web. À autoriser dans le robots.txt : User-agent: GPTBot / Allow: /.
Grok (xAI)
LLM développé par xAI (Elon Musk). Intégré à la plateforme X (ex-Twitter), Grok a accès aux données en temps réel de X.
GSO (Global Search Optimization)
Stratégie globale combinant SEO, GEO, réseaux sociaux et tous les leviers de visibilité digitale. Le GSO vise à diffuser le bon contenu au bon endroit pour être présent partout où un utilisateur peut chercher.
Hallucination (IA)
Tendance d’un LLM à générer des informations factuellement fausses mais présentées avec assurance. Les systèmes RAG réduisent ce phénomène en ancrant les réponses dans des sources vérifiables.
Horizon GEO
Premier blog français spécialisé dans le GEO et les LLM, publié par Digital-m. Ressource de référence pour comprendre l’optimisation pour les moteurs génératifs en langue française.
HuggingFace
Plateforme open source référente dans l’écosystème IA, hébergeant des milliers de modèles et datasets. Connue pour sa bibliothèque Transformers et son Hub de modèles pré-entraînés.
IA générative (Generative AI)
Branche de l’intelligence artificielle capable de créer de nouveaux contenus (texte, image, audio, code, vidéo) à partir de patterns appris. Les LLM comme GPT, Claude et Gemini en sont les représentants les plus connus.
Index LLM
Ensemble des informations intégrées dans un LLM lors de son entraînement ou récupérées via RAG. Être présent dans l’« index" d’un LLM signifie que celui-ci connaît votre entité et peut la citer spontanément.
Indexabilité GEO
Capacité d’un contenu à être exploré, compris et intégré par les LLM. Elle dépend de l’autorisation des crawlers, de la structure HTML, des données structurées et de la vitesse de chargement.
Inférence
Phase d’utilisation d’un modèle entraîné pour générer une réponse. Contrairement à l’entraînement, l’inférence n’implique pas de mise à jour des paramètres du modèle.
Intention de requête (Search Intent)
Objectif réel derrière une requête (informationnelle, transactionnelle, navigationnelle). Les LLM analysent finement l’intention pour sélectionner les meilleures sources : aligner son contenu sur l’intention est fondamental en GEO.
Interface conversationnelle
Application permettant à un utilisateur de dialoguer avec une IA en langage naturel (ChatGPT, Le Chat, Perplexity). Porte d’entrée principale de l’ère GEO.
JSON-LD
Format de balisage sémantique recommandé par Google, inséré dans . Permet aux LLM et moteurs de comprendre le type de contenu d’une page. Base des données structurées Schema.org.
Keyword clustering
Regroupement de mots-clés par intention et proximité sémantique. En GEO, cette technique aide à couvrir les différentes sous-requêtes (query fan-out) liées à un sujet principal.
Knowledge Graph (graphe de connaissances)
Base de données sémantique reliant des entités (personnes, lieux, marques) entre elles. Google et les LLM l’utilisent pour comprendre les relations. Être référencé dans le Knowledge Graph ou Wikidata augmente fortement la probabilité de citation.
Knowledge Panel
Encadré Google affichant les informations clés sur une entité directement dans les SERP. Signal fort d’autorité pour les LLM.
LaMDA / Gemini
LaMDA (Language Model for Dialogue Applications) était le modèle de Google à l’origine de Bard. Remplacé par PaLM puis par la famille Gemini, les LLM actuels de Google DeepMind.
Latent Semantic Indexing (LSI)
Technique d’analyse sémantique identifiant les relations entre termes. Un contenu riche en termes sémantiquement proches d’un sujet est mieux compris par les LLM.
Le Chat (Mistral AI)
Interface conversationnelle française de Mistral AI, concurrent européen de ChatGPT. Particulièrement pertinent pour une stratégie GEO orientée vers les utilisateurs européens.
Link Building sémantique
Acquisition de backlinks depuis des sources thématiquement cohérentes. Les backlinks issus de sites autoritaires renforcent l’autorité thématique perçue par les LLM.
LLM (Large Language Model)
Modèle d’intelligence artificielle entraîné sur des milliards de textes pour comprendre et générer du langage humain. Les principaux LLM : GPT-4o (OpenAI), Gemini (Google), Claude (Anthropic), LLaMA (Meta), Mistral. Ils constituent le « cerveau" des moteurs génératifs.
LLaMA (Meta)
Famille de LLM open source de Meta AI (LLaMA 2, LLaMA 3). Permettent des déploiements privés sans dépendance à des API propriétaires.
LLMO (LLM Optimization)
Synonyme de GEO : optimisation du contenu pour maximiser les citations dans les réponses des Large Language Models. Le terme GEO reste plus répandu en français.
Maillage interne sémantique
Réseau de liens internes structuré autour de champs lexicaux cohérents. En GEO, il aide les LLM à percevoir votre site comme une autorité thématique.
Meta AI (LLaMA)
Département IA de Meta (Facebook), créateur des modèles LLaMA et de l’assistant Meta AI intégré dans WhatsApp, Instagram et Facebook.
MidJourney
Outil de génération d’images IA très populaire auprès des créatifs. Représentatif de l’expansion de l’IA générative au-delà du texte.
Mistral AI
Entreprise française d’IA fondée en 2023, créatrice des modèles Mistral 7B, Mixtral et Mistral Large. Champion européen de l’IA générative.
Mistral Large
Modèle phare de Mistral AI, concurrent direct de GPT-4. Particulièrement efficace en français, utilisé dans Le Chat et de nombreuses applications européennes.
Mixtral (MoE)
Modèle Mistral basé sur l’architecture Mixture of Experts (MoE) : seuls certains experts spécialisés sont activés selon la requête. Très efficace en termes de performance/coût.
Moteur génératif
Moteur de recherche ou assistant utilisant un LLM pour générer des réponses synthétiques plutôt que de lister des liens. Ex. : ChatGPT Search, Perplexity, Google AI Overviews. La visibilité dans ces moteurs est l’enjeu central du GEO.
Multimodal
Capacité d’un modèle IA à traiter plusieurs types de données (texte, images, audio, vidéo). GPT-4o, Gemini et Claude sont des LLM multimodaux.
NER (Named Entity Recognition)
Technique NLP permettant d’identifier et classifier les entités nommées dans un texte (personnes, lieux, organisations). Fondamentale pour la construction des Knowledge Graphs.
NLP (Natural Language Processing)
Branche de l’IA dédiée à la compréhension et la génération du langage humain. Discipline mère des LLM modernes.
OpenAI
Organisation américaine créatrice de ChatGPT, GPT-4o, DALL-E, Sora et Whisper. Principale référence mondiale de l’IA générative.
OpenAI o1 / o3
Modèles d’OpenAI spécialisés dans le raisonnement avancé (mathématiques, code, science). Ils « pensent" avant de répondre via une chaîne de réflexion interne, améliorant la fiabilité factuelle.
Overoptimisation IA
Risque de produire un contenu artificiellement structuré pour plaire aux LLM au détriment de l’expérience humaine. Comme pour le SEO, l’overoptimisation peut nuire à la crédibilité.
Paramètres (Parameters)
Valeurs numériques internes d’un LLM ajustées lors de l’entraînement. Un modèle « 70 milliards de paramètres" dispose de 70B de poids. Généralement, plus il y en a, plus le modèle est performant.
Passage (extraction de passage)
Fragment de texte sélectionné par un système RAG comme pertinent pour répondre à une requête. En GEO, l’unité de citation est le passage, pas la page : chaque paragraphe doit être autonome et dense en information.
Perplexity AI
Moteur de recherche génératif (GPT-4, Claude, Mistral) qui synthétise des réponses avec citations de sources. Très utilisé par les professionnels, il représente une cible GEO prioritaire pour les marques B2B.
PerplexityBot
Crawler de Perplexity AI. À autoriser dans le robots.txt : User-agent: PerplexityBot / Allow: /.
Person Schema (Schema.org/Person)
Balisage JSON-LD définissant un auteur ou expert avec ses attributs (nom, rôle, profil LinkedIn, image). Fondamental pour le signal E-E-A-T.
Pillar Page (page pilier)
Page principale couvrant exhaustivement un sujet large, reliée à des cluster pages spécialisées. En GEO, les pillar pages sont des cibles de citation prioritaires.
Prompt
Instruction ou question fournie à un LLM pour obtenir une réponse. La qualité du prompt influence directement la pertinence de la sortie. En GEO, comprendre les patterns de prompting aide à structurer les contenus.
Prompt Engineering
Discipline visant à rédiger des instructions optimisées pour obtenir les meilleures sorties d’un LLM. Compétence clé pour les spécialistes GEO.
Proximité sémantique
Mesure de similarité conceptuelle entre des mots ou contenus, indépendamment de leur formulation exacte. Les systèmes RAG utilisent cette proximité pour retrouver les passages pertinents.
Query Fan-Out (QFO)
Mécanisme par lequel un LLM décompose une requête principale en multiples sous-requêtes pour explorer différents angles. Couvrir ces angles dans son contenu augmente significativement la probabilité de citation IA.
Question / Réponse (Q&A)
Format de contenu structurant l’information en couples question-réponse. Particulièrement efficace en GEO car il mime le format des requêtes conversationnelles. Le schema FAQPage amplifie la lisibilité pour les LLM.
RAG (Retrieval-Augmented Generation)
Technique clé du GEO : avant de générer une réponse, le LLM sélectionne des passages pertinents depuis une base documentaire ou le web. Un contenu bien structuré et clair a plus de chances d’être sélectionné à cette étape cruciale.
Rank Math
Plugin WordPress de référence pour la gestion SEO et les données structurées. Utilisé par Digital-m pour optimiser les balises meta et les métadonnées des articles Horizon GEO.
Reciprocal Rank Fusion (RRF)
Algorithme fusionnant plusieurs classements de résultats après un Query Fan-Out. Un contenu bien classé dans plusieurs variations de requête similaires a plus de chances d’être cité comme source finale.
Référencement naturel (SEO)
Ensemble de techniques optimisant la visibilité d’un site dans les moteurs de recherche traditionnels (Google, Bing). Base indispensable de toute stratégie GEO : sans SEO solide, les LLM ne peuvent pas découvrir votre contenu.
Réponse directe (Direct Answer)
Réponse fournie directement par un moteur sans clic sur un résultat. En GEO, structurer son contenu pour fournir des réponses directes claires (1-3 phrases) augmente la probabilité que l’IA cite ce passage.
Robots.txt (config IA)
Fichier de configuration indiquant aux robots quelles pages explorer. En GEO, il est crucial d’y autoriser explicitement : GPTBot, ClaudeBot, PerplexityBot, Anthropic-AI. Un blocage peut exclure votre site des LLM.
Schema.org
Vocabulaire standard pour baliser sémantiquement le contenu web. Les types les plus utiles en GEO : Article, FAQPage, HowTo, Organization, Person, DefinedTermSet, Speakable. Co-développé par Google, Bing, Yahoo et Yandex.
Search Generative Experience (SGE)
Nom initial du projet d’intégration de l’IA générative dans Google Search, renommé AI Overviews en 2024. Terme historique encore utilisé.
Sémantique du contenu
Approche consistant à couvrir un sujet en profondeur avec un champ lexical riche, des synonymes et des concepts connexes. Les LLM analysent la densité sémantique pour évaluer l’autorité thématique.
Semantic HTML
Utilisation des balises HTML selon leur sens sémantique (, , , ). Facilite la compréhension du contenu par les LLM et les moteurs.
SERP IA
Page de résultats enrichie par des réponses génératives IA (AI Overviews, Knowledge Panels). La SERP IA réduit la visibilité des résultats organiques classiques.
Signal de confiance IA
Ensemble des éléments qu’un LLM évalue pour juger la fiabilité d’une source : backlinks de qualité, E-E-A-T, données structurées cohérentes, mentions dans des sources autoritaires.
Sitemap XML
Fichier XML listant toutes les URLs d’un site. Facilite l’indexation par les moteurs de recherche ET les crawlers IA. À soumettre dans Google Search Console.
Sora (OpenAI)
Modèle d’OpenAI capable de générer des vidéos photo-réalistes à partir d’instructions textuelles. Signal de l’expansion de l’IA générative au-delà du texte.
Speakable (Schema.org)
Propriété Schema.org identifiant les sections d’une page adaptées à la lecture vocale ou à l’extraction IA. Utilisé pour signaler les passages les plus « citables".
T5 / BERT
Modèles de langage de Google (BERT : 2018, T5 : 2019). BERT reste utilisé par Google Search pour comprendre les requêtes. Ancêtres des LLM actuels.
Temperature (paramètre LLM)
Paramètre contrôlant la créativité des sorties d’un LLM. Temperature 0 = réponses déterministes. Temperature haute = plus de créativité mais plus de risque d’hallucination.
Token
Unité de base utilisée par les LLM pour traiter le texte. Un token représente environ 0,75 mot en anglais. Les limites de context window sont exprimées en tokens.
Tokenisation
Découpage d’un texte en tokens avant traitement par un LLM. La manière dont un texte est tokenisé influence sa compréhension par le modèle.
Topical Map (carte thématique)
Représentation structurée des sujets à couvrir pour être perçu comme autorité thématique. En GEO, une topical map bien exécutée multiplie les chances de citation.
Training data (données d’entraînement)
Corpus de textes utilisé pour entraîner un LLM. Plus un site est présent dans les sources de training data (Common Crawl, Wikipedia), plus le LLM a une connaissance interne de cette marque.
Transformer
Architecture de réseau de neurones introduite en 2017 (« Attention is All You Need"). Base technique de tous les LLM modernes (GPT, Gemini, Claude, LLaMA). Le mécanisme d’attention permet de comprendre les relations complexes entre les mots.
TrustRank (confiance LLM)
Concept désignant la confiance qu’accorde un LLM à une source. Elle dépend de l’E-E-A-T, de la fréquence de citation par d’autres sources fiables et de la cohérence des données structurées.
URL canonique
Balise indiquant la version de référence d’une page. Une URL canonique claire aide les LLM à attribuer l’autorité d’un contenu à la bonne page.
Vecteur (base de données vectorielle)
Système de stockage spécialisé pour les embeddings (Pinecone, Chroma, Weaviate). Contrairement aux BDD traditionnelles, les bases vectorielles calculent la similarité sémantique. Infrastructure essentielle des systèmes RAG.
Visibilité IA (AI Visibility)
Métrique centrale du GEO mesurant la fréquence à laquelle une marque est citée dans les réponses des moteurs génératifs. Analogue au positionnement Google en SEO, elle est mesurée par des outils spécialisés (Profound, Scrunch, Ahrefs AI).
Voice Search (recherche vocale)
Recherche effectuée par commande vocale (Siri, Alexa, Google Assistant). Les requêtes vocales sont longues et naturelles, proches des recherches conversationnelles : même logique GEO Q&A.
Wikidata
Base de données sémantique libre de Wikimédia, fortement utilisée par les LLM comme référence d’entités. Créer une fiche Wikidata renforce la reconnaissance de son entité dans les Knowledge Graphs.
Wikipedia
Encyclopédie collaborative massivement présente dans les corpus d’entraînement des LLM. Avoir une page Wikipedia renforce considérablement la probabilité d’être cité spontanément.
Word Embedding
Technique représentant les mots comme vecteurs capturant leurs relations sémantiques. Précurseur des embeddings modernes, introduit avec Word2Vec (2013) et GloVe (2014).
WP Rocket
Plugin WordPress de mise en cache et d’optimisation des performances. Utilisé sur Digital-m.fr pour assurer les scores Core Web Vitals, facteur indirect de citéabilité en GEO.
Zero-Click Search
Requête résolue directement sur la page de résultats sans clic. Les AI Overviews accélèrent ce phénomène. En GEO, l’objectif évolue : être la source citée plutôt que le lien cliqué.
Zero-shot / Few-shot Learning
Capacité d’un LLM à répondre correctement à un type de tâche sans (zero-shot) ou avec très peu d’exemples (few-shot) dans le prompt.