Le glossaire du SEO : les définitions du référencement de sites web
Tout ce que vous avez toujours voulu savoir sur le SEO sans jamais oser le demander 😉
Le référencement naturel de sites web est un univers riche en techniques, en stratégies et en termes parfois obscurs pour qui n’en maîtrise pas les codes. Ce glossaire a été conçu pour lever toutes les zones d’ombre et vous donner, en un seul endroit, les définitions claires et complètes des concepts essentiels. Chaque entrée va droit au but, vous explique le terme, son utilité et ses impacts concrets sur la visibilité d’un site.
Vous y trouverez également des exemples pratiques, des erreurs fréquentes à éviter. Que vous soyez chef d’entreprise, responsable marketing ou simplement curieux de comprendre comment Google classe les pages, vous aurez ici de quoi passer du simple décryptage au pilotage éclairé de vos actions SEO.
Un consultant SEO qui vous veut du bien :D…
Pourquoi faire appel à mes services ?
CDI, CDD, freelance, je suis à votre écoute pour mettre en place votre projet dès maintenant...
Mes compétences
- SEO technique : audits, logs, crawl, Core Web Vitals, balisage sémantique
- SEO éditorial : rédaction web, briefs, optimisations sémantiques, cocons, structure MECE
- Analyse de données : suivi positions, CTR, trafic organique, cannibalisation
- Outils : GSC, GA, Screaming Frog, SEMrush, Thot SEO, YourText.guru
- Développement : HTML, CSS, PHP, intégration et optimisation front-end
- UX design : architecture d’information, hiérarchie contenus, parcours conversion
- Gestion de projets : roadmap SEO, coordination rédacteurs/devs/PO, Scrum, Kanban
- Maîtrise LLMs et adaptation SEO aux moteurs IA
- Pilotage équipes rédactionnelles
Expériences clés (CDI, CDD, freelance)
- ChapsVision — stratégie SEO SaaS B2B, top 10 sur 60+ requêtes
- CEDIV — optimisation store locator B2C, formation SEO agences
- MesDépanneurs.fr / Engie — amélioration parcours client, optimisation SERP
- SDM / WeLondres — refonte SEO, top 10 sur 50+ requêtes, hausse leads/conversions
- Donatello — webmastering, UX/UI, stratégie SEO
- Marmara / TUI — coordination SEO & webmarketing, UX design
- Efil Com — conseil et formation SEO
- Indépendant — rédaction optimisée, suivi SEO clients
- Cahiers du Football — co-fondateur, web/UX/SEO, développement PHP
Qu’est-ce que le crawl ?
Le crawl est l’exploration automatique de vos pages par les robots des moteurs de recherche afin de découvrir, comprendre et mettre à jour les contenus d’un site.
Le crawl précède l’indexation : sans exploration efficace, vos pages clés restent invisibles. Il s’appuie sur les liens internes, les sitemaps et les signaux techniques (robots.txt, codes HTTP) pour décider quoi visiter et à quelle fréquence.
Mesure : fréquence de passage par URL, profondeur de page, erreurs de crawl, volumes et répartition par répertoires. Outils : analyse de logs, Google Search Console, crawlers (type Screaming Frog), tableaux de bord maison.
Exemples : site vitrine peu profond ; e-commerce à facettes nécessitant des règles d’exploration ; blog avec archives paginées.
Erreurs fréquentes : liens cassés, boucles de redirection, pièges à crawl (paramètres d’URL), contenus inaccessibles sans JS exécuté.
Aller plus loin : budget de crawl, profondeur, sitemaps XML.
Qu’est-ce que le budget de crawl (crawl budget) ?
Le budget de crawl est le volume d’URLs qu’un moteur accepte d’explorer sur votre site dans une période donnée, en fonction de la popularité et de la santé technique.
Il résulte d’un équilibre entre capacité du robot (crawl rate limit) et intérêt perçu du site (crawl demand). Plus vos signaux techniques et éditoriaux sont sains, plus les pages utiles sont visitées et révisées.
Mesure : pages explorées/jour, réactivité serveur, taux d’erreurs, proportion d’URLs « dilutives » (paramètres, filtres), délais de recrawl.
Exemples : sur un e-commerce, limiter l’exploration des combinaisons de filtres ; sur un média, favoriser les rubriques fraîches.
Erreurs fréquentes : gaspillage sur pages peu utiles, duplication paramétrique, sitemaps volumineux non pertinents.
Aller plus loin : robots.txt, règles d’indexation conditionnelle, maillage interne.
Qu’est-ce que le fichier robots.txt ?
Le fichier robots.txt indique aux robots quelles sections de votre site sont autorisées ou déconseillées à l’exploration, afin d’orienter le crawl.
Il se place à la racine du domaine et s’applique par user-agent (robot visé). Il n’impose pas l’indexation : il régit l’accès à l’exploration, pas l’apparition en résultats.
Mesure : cohérence avec la réalité des URLs, absence de blocage involontaire, suivi via logs des hits 200/403/404 sur robots.txt.
Exemples : désautoriser /wp-admin/ ou des pages techniques ; laisser passer les assets requis au rendu.
Erreurs fréquentes : bloquer des pages qui ont pourtant des liens externes, empêcher l’accès au CSS/JS, confondre « Disallow » et « noindex ».
Aller plus loin : balises meta robots, X-Robots-Tag, sitemaps XML.
Qu’est-ce qu’un sitemap XML ?
Un sitemap XML est un fichier listant des URLs prioritaires avec leurs métadonnées pour aider les moteurs à découvrir et à réviser efficacement vos pages.
Il ne garantit pas l’indexation mais facilite la découverte, notamment pour des contenus profonds, récents ou faiblement maillés. Variantes : sitemaps images, vidéos, actualités.
Mesure : taux de couverture (soumis vs indexés), erreurs d’URL (404, noindex), taille et segmentation (par type, par section).
Exemples : un e-commerce segmente par catégories ; un blog sépare articles et pages ; un site média utilise un sitemap « News ».
Erreurs fréquentes : inclure des URLs canonisées ailleurs, noindex, ou inaccessibles ; mélanger HTTP/HTTPS, www/non-www.
Aller plus loin : indexation, budget de crawl, maillage interne.
Qu’est-ce que l’indexation ?
L’indexation est l’étape par laquelle un moteur stocke et rend éligibles vos pages pour l’affichage dans les résultats de recherche.
Elle dépend de la qualité perçue, de l’accessibilité (rendu), de la non-duplication et de la pertinence par rapport aux intentions de recherche.
Mesure : pages « Indexées », « Exclues », « Découvertes mais non indexées » dans GSC, logs de recrawl, délais entre publication et indexation.
Exemples : pages catégories stratégiques indexées en priorité ; fiches produits obsolètes volontairement désindexées.
Erreurs fréquentes : confondre blocage crawl et noindex, laisser des duplicats diluer le signal, ignorer le rendu JS.
Aller plus loin : balise canonique, noindex, duplication.
Qu’est-ce que la balise canonique (rel=canonical) ?
La balise canonique indique l’URL de référence quand plusieurs pages similaires existent, afin de consolider les signaux et d’éviter la dilution.
Placée dans le head HTML, elle guide les moteurs vers la version à privilégier. Elle n’est pas toujours absolue : les moteurs peuvent l’ignorer si incohérente.
Mesure : cohérence canonique (auto-référente sur la page cible), absence de boucles, taux de pages « dupliquées, non sélectionnées comme canonique » (GSC).
Exemples : variantes tri/filtre, pagination douce, versions UTM ; une fiche produit accessible par plusieurs chemins.
Erreurs fréquentes : canonical vers des pages noindex/404, canoniques croisées, canoniques contradictoires avec les sitemaps.
Aller plus loin : duplication, paramètres d’URL, maillage interne.
Qu’est-ce que noindex / nofollow ?
Noindex demande aux moteurs de ne pas indexer une page ; nofollow signale de ne pas suivre (ou ne pas transférer de signal via) les liens sortants de la page.
Noindex s’applique via meta robots ou X-Robots-Tag. Nofollow peut être global (sur la page) ou au niveau des liens (rel= »nofollow », « sponsored », « ugc »).
Mesure : cohérence entre balises, en-têtes HTTP et robots.txt ; suivi des états d’exclusion dans GSC.
Exemples : noindex pour pages légales dupliquées, filtres « ouvert » non utiles, recherche interne ; nofollow sur liens payants/sponsorisés.
Erreurs fréquentes : bloquer au robots.txt une page noindex (les robots ne voient plus la balise), laisser des pages sensibles indexables.
Aller plus loin : canonical, Indexation conditionnelle, directives robots.
Qu’est-ce que le duplicate content ?
La duplication de contenu (duplicate content) est la présence de contenus identiques ou très similaires sur plusieurs URLs, ce qui disperse la pertinence et nuit à l’indexation.
Elle peut être interne (au sein du site) ou externe (entre domaines). Les causes courantes : paramètres d’URL, versions imprimables, troncatures, syndication non contrôlée.
Mesure : crawl et comparaisons (similitude), rapports GSC, analyse des canoniques, clusters par hash/empreinte.
Exemples : fiches produits quasi identiques, tags proliférants, archives multiples, pages de tri/filtre indexées.
Erreurs fréquentes : corriger uniquement via redirections sans revoir les gabarits, ignorer les modèles d’URL, ne pas gérer la syndication.
Aller plus loin : canonical, maillage interne, near-duplicate.
Qu’est-ce qu’une page orpheline et la profondeur de page ?
Une page orpheline n’a aucun lien interne pointant vers elle ; la profondeur de page correspond au nombre de clics depuis la page d’accueil pour l’atteindre.
Les orphelines sont rarement crawlées et indexées ; une profondeur trop élevée réduit la visibilité et la circulation d’autorité interne.
Mesure : rapprochement crawl vs logs vs sitemaps pour détecter les orphelines, histogrammes de profondeur, pages profondes non visitées.
Exemples : fiches produits non reliées, pages de campagne hors menu, articles sans liens contextuels.
Erreurs fréquentes : se reposer sur le seul sitemap pour des pages stratégiques, menus surchargés mais peu de liens contextuels.
Aller plus loin : PageRank interne, silos thématiques, navigation.
Qu’est-ce que les Core Web Vitals (LCP, INP, CLS) ?
Les Core Web Vitals sont des indicateurs de qualité perçue : LCP (vitesse d’affichage utile), INP (réactivité aux interactions), CLS (stabilité visuelle).
LCP : délai d’affichage du plus grand élément au-dessus de la ligne de flottaison. INP : latence globale des interactions (remplace FID). CLS : mouvements inattendus de mise en page. Ils influencent l’expérience et, indirectement, la capacité à convertir.
Mesure : données terrain (CrUX, GSC) vs données labo (Lighthouse), suivi par modèle d’appareil et par gabarit. Seuils recommandés : « Bon » si LCP ≤ 2,5 s, INP ≤ 200 ms, CLS ≤ 0,1.
Exemples : optimiser images héros (LCP), réduire scripts bloquants (INP), réserver l’espace des médias/annonces (CLS).
Erreurs fréquentes : se fier uniquement au labo, ignorer le réseau mobile réel, corriger un indicateur au détriment des autres.
Aller plus loin : temps de chargement, lazy-loading, optimisation des assets.
Qu’est-ce que le temps de chargement (performance web) ?
Le temps de chargement est la rapidité avec laquelle une page devient utilisable pour l’utilisateur, un facteur clé d’expérience et de conversion.
Il influence les signaux comportementaux (rebond, abandon) et participe à l’éligibilité aux résultats avancés. Il se travaille côté serveur, côté front (HTML, CSS, JS) et côté médias (images, vidéos).
Mesure : temps à l’affichage et à l’interaction (données terrain CrUX/GSC vs données labo Lighthouse), poids de page, requêtes, cache. Outils : PageSpeed Insights, WebPageTest, logs/CDN.
Exemples : compression d’images, HTTP/2/3, préchargement des polices, réduction JS.
Erreurs fréquentes : optimiser seulement la page d’accueil, cacher des problèmes derrière un cache agressif, ignorer mobile.
Aller plus loin : Core Web Vitals, lazy-loading, optimisation des assets.
Qu’est-ce que l’intention de recherche ?
L’intention de recherche exprime le besoin réel de l’internaute derrière une requête (informationnelle, navigationnelle, transactionnelle, commerciale).
Comprendre l’intention guide la structure, le ton et les preuves attendues (comparatifs, prix, tutoriels, avis).
Mesure : analyse de la SERP (Search Engine Results Page), types de résultats, PAA, présence de fiches produit ou guides, comportement utilisateurs.
Exemples : « comment… » (tutoriel), « meilleur [produit] » (comparatif), « [marque] » (navigation).
Erreurs fréquentes : répondre par un article quand la SERP attend une fiche produit, mélanger plusieurs intentions dans une seule page.
Aller plus loin : PAA, featured snippet, longue traîne.
Qu’est-ce que la balise title ?
La balise title est le titre principal affiché en résultats et un signal fort de pertinence et de clic.
Elle doit résumer l’offre, intégrer le mot clé principal sans sur-optimisation et donner une raison de cliquer.
Mesure : CTR (taux de clics), impressions, positions par page, tests A/B éditoriaux (variations prudentes).
Exemples : page service locale avec bénéfice + localisation ; fiche produit avec modèle + avantage distinctif.
Erreurs fréquentes : titres tronqués, duplication à l’échelle du site, surcharge de mots-clés, incohérence avec le contenu.
Aller plus loin : meta description, H1, PAA.
Qu’est-ce que la meta description ?
La meta description est l’extrait éditorial affiché en SERP qui incite au clic en clarifiant la promesse de la page.
Elle n’est pas un facteur de classement direct mais influence fortement le trafic.
Mesure : CTR, tests de variations sémantiques, cohérence avec les requêtes déclenchées.
Exemples : intégrer bénéfice, preuve (chiffre, avis), appel à l’action discret ; adapter au local (ville).
Erreurs fréquentes : copier l’intro de l’article, dépasser la longueur conseillée, ignorer l’intention.
Aller plus loin : title, PAA, snippets enrichis.
Que sont les Hn (H1–H6) ?
Les balises Hn structurent le contenu en titres hiérarchisés, facilitant lecture, accessibilité et compréhension thématique.
Le H1 est unique ; les H2/H3 découpent les sections ; les H4+ détaillent les sous-parties.
Mesure : présence/unicité du H1, cohérence sémantique des H2/H3, table des matières, ancrages.
Exemples : article MECE avec H2 par idée majeure, H3 pour méthodes, H4 pour exemples.
Erreurs fréquentes : styles visuels sans vraies balises, H1 multiples, sauts de niveau.
Aller plus loin : intention, featured snippet, accessibilité.
Qu’est-ce qu’un contenu evergreen et la freshness ?
Un contenu evergreen reste pertinent longtemps, tandis que la freshness reflète la mise à jour utile perçue par les moteurs.
Les deux se complètent : structure stable + mises à jour factuelles (données, captures, prix).
Mesure : date de dernière révision, évolution CTR/positions, ajout de sections, maillage interne récent.
Exemples : guide pérenne enrichi chaque année ; page tarifs mise à jour trimestriellement.
Erreurs fréquentes : « rafraîchissements » cosmétiques sans valeur, re-publication changeant l’URL.
Aller plus loin : topical authority, passage ranking.
Que sont les mots-clés et la longue traîne ?
Les mots-clés décrivent le sujet ciblé ; la longue traîne regroupe de nombreuses requêtes spécifiques au volume modeste mais cumulatif.
On travaille les groupes sémantiques (thèmes, entités) plutôt que des mots isolés.
Mesure : couverture thématique, pages par intention, part de trafic longue traîne, « pages par requêtes » en GSC.
Exemples : page pilier + pages filles ; FAQ captant des formulations variées.
Erreurs fréquentes : bourrage de mots, ignorer les entités, cibler un seul mot pour tout un site.
Aller plus loin : entités, topical authority, PAA.
Qu’est-ce que la cannibalisation ?
La cannibalisation survient quand plusieurs pages d’un même site se concurrencent sur une même intention, diluant la pertinence.
Elle provoque des fluctuations, un CTR moindre et rend le signal confus.
Mesure : chevauchement de requêtes en GSC, alternance d’URL pour un même mot clé, courbes de positions instables.
Exemples : articles proches publiés à des dates différentes ; pages catégorie vs tags.
Erreurs fréquentes : créer une nouvelle page au lieu de consolider, ne pas rediriger l’ancienne.
Aller plus loin : maillage interne, canonical, fusion de contenus.
Qu’est-ce que le thin content (contenu faible) ?
Le thin content est un contenu trop court, pauvre en valeur ou superficiel, qui n’aide ni l’utilisateur ni la compréhension des moteurs.
Il touche souvent les pages générées en masse (listes vides, gabarits).
Mesure : pages sans trafic, taux de rebond élevé, faible temps de lecture, indexation instable.
Exemples : fiches produit sans descriptif, catégories sans texte utile, pages de ville générées.
Erreurs fréquentes : multiplier les pages pour « couvrir » des mots-clés, dupliquer des blocs.
Aller plus loin : consolidation, données structurées, E-E-A-T.
Qu’est-ce que le contenu dupliqué interne/externe ?
Le contenu dupliqué interne/externe désigne des textes identiques ou très proches soit au sein du site, soit entre sites, brouillant la version à indexer.
À l’externe, la syndication non maîtrisée peut cannibaliser l’original.
Mesure : détection par crawl/empreintes, rapports « dupliqué » GSC, rel=canonical, dates/authorité des domaines.
Exemples : fiches fabricants reprises mot pour mot ; communiqués diffusés partout.
Erreurs fréquentes : ignorer l’attribution (source), oublier les canoniques ou l’exclusivité.
Aller plus loin : canonical, near-duplicate, mentions sans lien.
Qu’est-ce que le netlinking ?
Le netlinking est l’acquisition maîtrisée de liens externes de qualité pour renforcer l’autorité et la découvrabilité d’un site.
La qualité prime : pertinence thématique, page de destination cohérente, ancre naturelle.
Mesure : domaines référents, autorité/fiabilité, trafic référent, croissance temporelle, pages cibles.
Exemples : études originales, guides de référence, partenariats locaux.
Erreurs fréquentes : achats massifs, schémas artificiels, ancres sur-optimisées.
Aller plus loin : linkbait, désaveu, mentions/citations.
Qu’est-ce qu’un backlink et un domaine référent ?
Un backlink est un lien d’un site externe vers le vôtre ; un domaine référent est le site source compté une seule fois même s’il envoie plusieurs liens.
Un profil diversifié et sain est recherché.
Mesure : nombre et qualité des domaines référents, pages qui reçoivent des liens, proportion dofollow/nofollow.
Exemples : un article de presse qui cite une étude ; un annuaire local de qualité.
Erreurs fréquentes : se focaliser sur la quantité, négliger la page de destination.
Aller plus loin : ancre, link velocity, désaveu.
Qu’est-ce que l’ancre de lien (anchor text) ?
L’ancre de lien est le texte cliquable qui décrit la destination ; elle aide les moteurs à comprendre le sujet lié.
Varier les ancres et rester naturel est essentiel.
Mesure : répartition des types d’ancres (marque, générique, descriptive), cohérence avec la page cible, contexte sémantique.
Exemples : « guide SEO local » pointant vers la page correspondante ; nom de marque sur la page d’accueil.
Erreurs fréquentes : sur-optimisation exacte, ancres vagues (« cliquez ici »), incohérence destination/contenu.
Aller plus loin : PageRank interne, netlinking.
Qu’est-ce que le PageRank interne (maillage interne) ?
Le PageRank interne est la circulation de l’autorité entre vos pages via les liens internes, orientant l’exploration et la priorité de référencement.
On le sculpte par la structure et les liens contextuels pertinents.
Mesure : profondeur, liens entrants internes par page, score interne (outils de crawl), visites robots.
Exemples : relier pages piliers ↔ pages filles ; liens transverses entre articles d’un même cluster.
Erreurs fréquentes : menus lourds mais peu de liens dans le corps, pages stratégiques peu reliées.
Aller plus loin : silo sémantique, orphelines, sitemaps.
Que signifient nofollow, sponsored et UGC pour les liens ?
Les attributs rel= »nofollow », « sponsored » et « ugc » qualifient la nature d’un lien pour encadrer la transmission de signaux.
Nofollow = non fiable/indéterminé ; sponsored = publicitaire ; UGC = contenu généré par les utilisateurs.
Mesure : conformité légale et guide Google, proportion par type, cohérence avec les emplacements.
Exemples : articles sponsorisés, commentaires de blog, widgets.
Erreurs fréquentes : oublier « sponsored » sur un lien payé, tout mettre en nofollow par défaut.
À relier vers : Prestations SEO, Blog conformité.
Aller plus loin : désaveu, netlinking, ancre.
Qu’est-ce que Google Search Console (GSC) ?
Google Search Console est l’outil gratuit de Google pour surveiller l’indexation, la performance de recherche et la santé technique d’un site.
Il fournit données de requêtes, pages, couverture, ergonomie, sitemaps.
Mesure : clics, impressions, CTR, position ; états d’indexation ; enrichissements ; signaux Core Web Vitals.
Exemples : identifier les pages qui « frôlent » le top 10 ; soumettre un sitemap ; corriger des exclusions.
Erreurs fréquentes : lire seulement la vue globale, ignorer les filtres (page, requête, appareil).
Aller plus loin : logs serveur, données structurées, AI Overviews.
Que sont les impressions, clics et CTR ?
Les impressions comptent les affichages en résultats ; les clics sont les visites issues de la recherche ; le CTR est le pourcentage de clics sur impressions.
Ils mesurent l’attractivité et la visibilité réelle.
Mesure : par page/requête/appareil, avant/après modification de titres, saisonnalité.
Exemples : améliorer un title pour augmenter le CTR à position constante ; FAQ pour capter plus d’impressions.
Erreurs fréquentes : comparer des périodes non équivalentes, ignorer l’intention dominante.
Aller plus loin : position moyenne, PAA, snippets enrichis.
Qu’est-ce que la position moyenne et la visibilité ?
La position moyenne est le rang moyen d’affichage d’une page/requête ; la visibilité combine présence et pondération par volume et CTR attendu.
La position n’explique pas tout : l’intention et la présentation comptent.
Mesure : position par requête, évolution, concurrents indirects, partage d’impression.
Exemples : passer de 9 à 5 sans gain de clic si le CTR attendu est faible ; obtenir un featured snippet change la visibilité.
Erreurs fréquentes : se fixer sur « la » position d’un mot isolé, ignorer les variantes.
Aller plus loin : featured snippet, part de voix, AI Overviews.
Qu’est-ce que l’analyse de logs serveur ?
L’analyse de logs étudie les requêtes des robots et utilisateurs sur votre serveur pour comprendre le crawl et prioriser les corrections.
Elle révèle ce qui est vraiment exploré et quand.
Mesure : hits par user-agent, fréquence par répertoire, erreurs, profondeur réelle, budget de crawl consommé.
Exemples : repérer pièges à crawl, pages jamais visitées, surcharge de filtres.
Erreurs fréquentes : échantillon trop court, UA non normalisés, absence de corrélation avec le crawl outillé.
Aller plus loin : sitemaps segmentés, facettes, indexation conditionnelle.
Que sont les données structurées (Schema.org) ?
Les données structurées balisent des éléments (produit, FAQ, avis, événement…) pour aider les moteurs à comprendre et enrichir l’affichage.
Elles n’assurent pas un résultat enrichi mais l’autorisent.
Mesure : validation (Rich Results Test), rapports GSC, taux d’apparition de résultats enrichis, impact CTR.
Exemples : FAQPage, Product (prix/disponibilité), LocalBusiness (adresse, horaires).
Erreurs fréquentes : balisage non conforme ou non visible, divergence contenu/balisage.
Aller plus loin : Knowledge Graph, carrousels, avis.
Qu’est-ce qu’un rich snippet (résultat enrichi) ?
Un rich snippet est un résultat de recherche agrémenté d’éléments visuels/textuels (étoiles, FAQ, prix) issus des données structurées.
Il améliore la visibilité et le CTR potentiel.
Mesure : taux d’apparition, variation CTR, stabilité dans le temps, impact par type d’appareil.
Exemples : notes d’avis sur produit, FAQ sous un guide, prix stock en e-commerce.
Erreurs fréquentes : baliser sans contenu réel, spams d’avis, ignorer les consignes.
Aller plus loin : featured snippet, PAA, Local Pack.
Qu’est-ce que People Also Ask (PAA) ?
People Also Ask est un bloc de questions/réponses associé à une requête, reflétant des sous-intentions liées.
Y répondre nécessite des blocs courts, clairs, autoportants.
Mesure : position d’apparition, taux de capture, questions couvertes vs manquantes.
Exemples : FAQ par page, sous-titres formulés en questions, définitions de 40–60 mots.
Erreurs fréquentes : réponses vagues, formats non scannables, absence d’ancres.
Aller plus loin : featured snippet, intention, longue traîne.
Qu’est-ce que le Knowledge Graph ?
Le Knowledge Graph est la base de connaissances de Google qui relie entités (personnes, marques, lieux) et attributs pour enrichir les résultats.
Être reconnu comme entité renforce la présence de marque.
Mesure : panneau de connaissance, cohérence des attributs (nom, logo, site), Wikidata, mentions fiables.
Exemples : page « À propos », données structurées Organization/Person, profils officiels alignés.
Erreurs fréquentes : signaux contradictoires (noms différents), absence d’entités liées.
Aller plus loin : entités, E-E-A-T, brand SERP.
Qu’est-ce que les AI Overviews ?
Les AI Overviews sont des synthèses génératives que Google peut afficher pour répondre rapidement à certaines requêtes complexes.
Elles compilent des sources et peuvent réduire les clics sur les résultats classiques.
Mesure : suivi des requêtes impactées, variations CTR, présence de votre marque dans les sources citées.
Exemples : créer des contenus de référence, FAQ concises, schémas explicatifs.
Erreurs fréquentes : ignorer l’intention composite, contenus non sourçables, manque de preuves/autorité.
Aller plus loin : topical authority, données structurées, mentions/citations.
Qu’est-ce que le SEO local ?
Le SEO local optimise la visibilité d’une entreprise pour des recherches géolocalisées et des requêtes « près de moi ».
Il combine site, fiche établissement et signaux hors site.
Mesure : positions locales, actions sur la fiche (appels, itinéraires), avis, cohérence NAP (Name, Address, Phone).
Exemples : pages de services par ville, GBP (Google Business Profile) complet, citations locales.
Erreurs fréquentes : catégories mal choisies, incohérences d’adresse, absence d’avis répondus.
Aller plus loin : GBP, pages locales, avis/E-E-A-T.
Qu’est-ce que Google Business Profile (GBP) ?
Google Business Profile est la fiche établissement affichée dans Google et Maps, centrale pour capter les recherches locales.
Elle doit être complète, cohérente et animée.
Mesure : vues, actions (appels, clics site, itinéraires), conversions locales, requêtes déclenchantes.
Exemples : posts réguliers, photos, produits/services, FAQ locale, horaires spéciaux.
Erreurs fréquentes : catégories inadaptées, doublons, liens cassés, absence de suivi UTM.
Aller plus loin : NAP, avis, pages « près de chez moi ».
Qu’est-ce que les avis clients et l’E-E-A-T ?
Les avis clients et les preuves d’Experience-Expertise-Authoritativeness-Trust renforcent la crédibilité et influencent la conversion et la visibilité.
Prouvez par des cas, des signatures, des mentions.
Mesure : volume et note moyenne d’avis, réactivité aux réponses, signaux d’expertise (auteurs, diplômes, mentions presse).
Exemples : études de cas détaillées, pages auteur, politiques de service claires.
Erreurs fréquentes : avis artificiels, absence d’auteur, contenus sensibles sans preuves.
Aller plus loin : données structurées « Review », YMYL, mentions sans lien.
Qu’est-ce que le NAP en SEO local ?
Le NAP (Name, Address, Phone) désigne l’ensemble des informations d’identité locale qui doivent rester strictement cohérentes partout.
La cohérence facilite l’agrégation par les moteurs.
Mesure : audit des citations, correspondance exacte (orthographe, numéro, format), pages annuaires.
Exemples : même nom abrégé, numéro cliquable, adresse normalisée.
Erreurs fréquentes : variantes de nom, vieux numéros, môles d’écriture différents.
Aller plus loin : pages locales, schéma LocalBusiness.
Qu’est-ce que le silo sémantique et l’architecture de l’information ?
Le silo sémantique organise les contenus par thèmes cohérents et liens internes, pour clarifier votre expertise aux lecteurs et aux moteurs.
Il structure la navigation et la priorisation.
Mesure : profondeur par silo, liens intra-silo vs inter-silo, couverture des sous-thèmes, performances par cluster.
Exemples : page pilier « Prestations SEO » liée à « Audit », « SEO local », « Migration » ; blog en clusters.
Erreurs fréquentes : silos étanches sans liens utiles, thématiques mélangées, pages orphelines.
Aller plus loin : PageRank interne, topical authority, maillage contextuel.
Qu’est-ce qu’un featured snippet ?
Le featured snippet est un extrait mis en avant (paragraphe, liste, tableau) affiché avant les résultats classiques pour une question donnée.
Il vise la réponse directe, concise et sourcée.
Mesure : capture/loss du snippet, format déclenché, impact CTR, longueur de l’extrait.
Exemples : définition de 40–60 mots, liste d’étapes, mini-tableau comparatif.
Erreurs fréquentes : réponses trop longues, absence de question explicite, structure non balisée.
Aller plus loin : PAA, Hn, schémas.
Qu’est-ce que le pack local (Local Pack) ?
Le Local Pack est le bloc cartographique affichant trois établissements locaux pertinents pour une requête géolocalisée.
Il dépend de la proximité, de la pertinence et de la notoriété.
Mesure : apparitions, clics d’itinéraires, appels, positions dans Maps, avis.
Exemples : « consultant SEO Tours », « agence web près de moi ».
Erreurs fréquentes : catégorie principale erronée, manque d’éléments (photos, services), NAP incohérent.
Aller plus loin : pages locales, avis, données structurées locales.
Qu’est-ce que l’image pack et la vidéo ?
L’image pack et les résultats vidéo sont des blocs médias de la SERP qui répondent à des intentions visuelles ou démonstratives.
Ils exigent optimisation fichier, méta et contexte.
Mesure : impressions/clics en recherche d’images/vidéos, position, rich results.
Exemples : images avec alt descriptif, formats modernes (WebP), chapitrage vidéo, transcription.
Erreurs fréquentes : images lourdes sans contexte, vidéos hébergées mais non intégrées, données manquantes.
Aller plus loin : données structurées « VideoObject », « ImageObject ».
Qu’est-ce que Google News/Discover pour le SEO ?
Google News et Discover exposent des contenus d’actualité ou d’intérêt personnel, avec des critères de qualité, fraîcheur et fiabilité.
Ils ne se traitent pas comme la recherche classique.
Mesure : rapports dédiés GSC, clics/impressions, taux d’inclusion.
Exemples : actualités sectorielles sourcées, visuels attractifs, E-E-A-T marqué.
Erreurs fréquentes : titres « clickbait » trompeurs, manque d’auteur/date, duplication.
Aller plus loin : données structurées « Article », politique éditoriale.
Qu’est-ce que la navigation à facettes ?
La navigation à facettes filtre des listes (catégories e-commerce) par attributs ; mal gérée, elle crée des combinaisons d’URL dilutives.
On combine règles d’exploration et d’indexation conditionnelle.
Mesure : explosion d’URLs, budget de crawl gaspillé, taux d’indexation des combinaisons utiles, trafic par facette.
Exemples : indexer « catégorie + marque » mais noindex « tri + plusieurs filtres ».
Erreurs fréquentes : tout indexer, bloquer au robots.txt la page qui porte la balise noindex, canoniques contradictoires.
Aller plus loin : paramètres d’URL, canonical, pages « ouvertes » conditionnelles.
Qu’est-ce que la pagination ?
La pagination découpe des listes longues en pages successives ; l’objectif est d’assurer découverte, pertinence et transfert d’autorité.
La page 1 reste la cible principale.
Mesure : crawl des pages profondes, liens « précédent/suivant », signaux d’indexation des pages 2+, trafic long tail.
Exemples : lier des articles populaires depuis la page 1 ; résumer la catégorie.
Erreurs fréquentes : pages 2+ sans liens internes, contenus identiques (titres), canoniques mal réglés.
Aller plus loin : maillage contextuel, facettes, « voir tout » raisonné.
Qu’est-ce que le JavaScript SEO ?
Le JavaScript SEO traite de l’accès des robots aux contenus rendus côté client et de l’impact du rendu sur l’indexation.
Rendu hybride (SSR/CSR) et hydration contrôlée améliorent l’accessibilité.
Mesure : HTML initial vs rendu, couverture GSC, délais d’indexation, contenu détecté sans JS.
Exemples : prerender sur pages stratégiques ; isomorphisme pour listings.
Erreurs fréquentes : contenus essentiels injectés après interaction, navigation SPA non balisée.
Aller plus loin : rendu serveur, assets critiques, logs.
Qu’est-ce que la redirection 301/302 ?
La 301 est une redirection permanente transférant la majorité des signaux ; la 302 est temporaire et ne doit pas remplacer une 301 définitive.
Elles guident les moteurs et les utilisateurs.
Mesure : chaînes/boucles, codes HTTP, conservation du trafic/rankings.
Exemples : migration HTTPS (301), mise à jour d’URL produit obsolète (301), test marketing court (302).
Erreurs fréquentes : séries multiples, redirections vers la page d’accueil, oublier les liens internes.
Aller plus loin : canonical, plan de migration, logs.
Qu’est-ce qu’une erreur 404 et une soft 404 ?
Une 404 signale une page inexistante ; une soft 404 renvoie 200 mais est perçue comme vide ou non pertinente.
Gérer proprement l’absence évite la frustration et la dilution.
Mesure : rapports d’erreurs GSC, logs, pages les plus demandées en 404.
Exemples : page 404 utile avec recherche interne, redirections contextuelles si remplaçant clair.
Erreurs fréquentes : tout rediriger vers l’accueil, laisser des liens internes vers 404, soft 404 sur pages très pauvres.
Aller plus loin : maillage, thin content, migrations.
Qu’est-ce que l’hreflang en SEO international ?
Hreflang indique aux moteurs les variantes linguistiques/régionales d’une page et leur réciprocité pour servir la bonne version.
Il évite la concurrence entre versions proches.
Mesure : validité des pairs (réciprocité), codes langue/région corrects, alignement sitemaps.
Exemples : fr-FR, en-GB, fr-CA pour pages adaptées ; alternates croisées.
Erreurs fréquentes : URL manquantes, codes erronés, pages canoniques incohérentes.
Aller plus loin : duplication proche, canonical cross-domain.
Qu’est-ce que la topical authority ?
La topical authority est la démonstration d’expertise cohérente sur un thème à travers une couverture complète et des preuves d’autorité.
Elle se construit par clusters, qualité et références.
Mesure : couverture des sous-thèmes, liens entrants thématiques, reconnaissance d’entités, performance globale du silo.
Exemples : page pilier + séries d’articles profonds avec interliens, études originales.
Erreurs fréquentes : publier sans plan d’ensemble, sujets éclatés, absence de preuves.
Aller plus loin : entités, E-E-A-T, Knowledge Graph.
Qu’est-ce qu’une entité (NLP) ?
Une entité est un concept identifiable (personne, marque, lieu, idée) que les moteurs relient via des graphes de connaissances.
Rendre vos pages « lisibles » par entités renforce la compréhension.
Mesure : cohérence des noms, liens vers sources d’autorité, données structurées, mentions.
Exemples : présenter clairement la marque, les auteurs, les produits avec attributs.
Erreurs fréquentes : alias multiples, absence de contexte, fiches sans attributs.
Aller plus loin : Knowledge Graph, données structurées, topical authority.
Qu’est-ce que le SXO (SEO + UX) ?
Le SXO combine référencement et expérience utilisateur pour maximiser la découverte, la compréhension et la conversion.
Il relie intention, lisibilité et preuve.
Mesure : taux de conversion, temps de lecture, scroll, micro-conversions, Core Web Vitals.
Exemples : sommaire cliquable, formulaires courts, preuves visibles.
Erreurs fréquentes : pages « pour Google » sans valeur, CTAs invisibles.
Aller plus loin : copywriting, Hn, performance web.
Qu’est-ce que le copywriting SEO ?
Le copywriting SEO rédige pour convaincre tout en respectant l’intention et les contraintes de la recherche.
Il équilibre promesse, preuves et clarté.
Mesure : CTR, conversion, temps de lecture, part de voix.
Exemples : titres orientés bénéfice, intertitres MECE, FAQ adaptées aux PAA.
Erreurs fréquentes : jargon, promesses vagues, bourrage de mots.
Aller plus loin : Hn, meta description, featured snippet.
Qu’est-ce que la désindexation/« noindex » stratégique ?
La désindexation stratégique retire de la compétition des pages non utiles pour concentrer la pertinence sur les pages clés.
Elle s’emploie avec parcimonie et suivi.
Mesure : états GSC, évolution du crawl sur les pages restantes, trafic consolidé.
Exemples : filtres inutiles, pages de test, doublons de tri.
Erreurs fréquentes : bloquer au robots.txt (empêche la lecture de la balise), oublier le maillage.
Aller plus loin : canonical, facettes, sitemaps.
Qu’est-ce que la consolidation/fusion de contenus ?
La consolidation réunit des contenus proches en une page plus complète et plus crédible, réduisant la cannibalisation.
On redirige les doublons et on met à jour le plan.
Mesure : gain de positions/CTR, baisse de pages faibles, cohérence des liens.
Exemples : réunir deux guides similaires, enrichir une page pilier.
Erreurs fréquentes : fusionner sans réécriture, laisser des URL fantômes.
Aller plus loin : cannibalisation, maillage, redirections.
Qu’est-ce que la page locale « près de chez moi » ?
Une page locale cible une zone précise avec preuves de proximité et services adaptés, pour capter les requêtes géolocalisées.
Elle complète la fiche GBP.
Mesure : positions locales, clics « itinéraires », conversions régionales.
Exemples : « Consultant SEO à Tours » avec cas clients locaux, horaires, zone desservie.
Erreurs fréquentes : contenu générique cloné par ville, NAP incohérent.
Aller plus loin : schéma LocalBusiness, avis, pages services.
