← Retour aux tutoriels

Sujet à définir : guide SEO en français (niveau intermédiaire)

seometadatamarketing-digitalcontenu-webreferencement-naturel

Sujet à définir : guide SEO en français (niveau intermédiaire)

Ce tutoriel est un guide SEO (Search Engine Optimization) destiné à un niveau intermédiaire : vous connaissez déjà les bases (mots-clés, balises title, maillage interne, sitemap), et vous voulez passer à une approche plus systématique, mesurable et orientée exécution. L’objectif est de vous donner une méthode complète : audit → plan d’action → implémentation → mesure → itération.


1) Objectifs SEO : définir ce que “réussir” veut dire

Avant de toucher à la technique ou au contenu, clarifiez les objectifs. Le SEO n’est pas “avoir plus de trafic”, mais obtenir plus de trafic qualifié qui sert un objectif business.

Indicateurs clés (KPI) utiles

Segmentez vos KPI

Ne regardez pas “tout le site” : segmentez au minimum par :


2) Comprendre l’intention de recherche (et arrêter de “viser un mot-clé”)

À niveau intermédiaire, l’erreur fréquente est de choisir un mot-clé, puis d’écrire “un article dessus”. En réalité, Google classe des pages qui répondent à une intention.

Les 4 intentions (simplifiées)

Méthode pratique : analyser la SERP

Pour un mot-clé donné, ouvrez la SERP (idéalement en navigation privée + localisation pertinente) et notez :

Conclusion : votre page doit correspondre au format gagnant, ou proposer un format supérieur sans contredire l’intention.


3) Recherche de mots-clés : construire un plan, pas une liste

3.1 Construire un “univers sémantique”

Au lieu d’une liste plate, construisez :

Exemple de structure (simplifiée) :

3.2 Sources de mots-clés (pragmatiques)

3.3 Extraire des requêtes depuis Search Console

Vous pouvez exporter via l’interface, mais pour travailler proprement, utilisez l’API (niveau intermédiaire/avancé). Exemple avec gsc via Python est possible, mais restons sur des commandes accessibles.

Si vous avez un export CSV, vous pouvez déjà faire des analyses rapides en ligne de commande :

# Exemple: filtrer les requêtes contenant "guide" et trier par clics (CSV simple)
grep -i "guide" search_console.csv | sort -t',' -k3,3nr | head -n 20

Pour des CSV complexes (avec virgules dans les champs), utilisez python :

python - <<'PY'
import csv
from collections import defaultdict

path = "search_console.csv"
rows = []
with open(path, newline='', encoding="utf-8") as f:
    reader = csv.DictReader(f)
    for r in reader:
        rows.append(r)

# Filtrer requêtes contenant "seo"
filtered = [r for r in rows if "seo" in (r.get("Query","").lower())]

# Trier par clics
def to_float(x):
    try: return float(str(x).replace(",", "."))
    except: return 0.0

filtered.sort(key=lambda r: to_float(r.get("Clicks", 0)), reverse=True)

for r in filtered[:20]:
    print(r.get("Query"), r.get("Clicks"), r.get("Impressions"), r.get("Position"))
PY

4) Architecture et maillage interne : faire circuler l’autorité

Le maillage interne sert à :

4.1 Modèle “hub & spoke” (page pilier)

4.2 Auditer le maillage avec un crawler

Utilisez Screaming Frog (GUI), ou un crawler en ligne de commande. Une option simple : wget pour lister des URLs, mais ce n’est pas un crawler SEO complet. Pour un audit sérieux, privilégiez un outil dédié. Cela dit, vous pouvez déjà récupérer les liens internes d’une page :

curl -s https://exemple.com/page | grep -Eo 'href="[^"]+"' | head

Pour extraire et normaliser rapidement des URLs internes (approche basique) :

curl -s https://exemple.com/ | \
  grep -Eo 'href="[^"]+"' | \
  sed 's/href="//;s/"$//' | \
  grep -E '^/' | \
  sort -u | head -n 50

4.3 Règles pratiques de maillage


5) SEO technique : indexation, canonicals, robots, sitemaps

5.1 Crawl vs Indexation

5.2 Robots.txt : contrôler l’exploration (pas l’indexation)

robots.txt indique ce que les bots peuvent crawler. Il n’empêche pas toujours l’indexation si l’URL est découverte ailleurs.

Exemple minimal :

User-agent: *
Disallow: /panier/
Disallow: /compte/
Allow: /

Sitemap: https://exemple.com/sitemap.xml

Bonnes pratiques

5.3 Meta robots et X-Robots-Tag

Dans le HTML :

<meta name="robots" content="noindex,follow">

Au niveau serveur (utile pour PDF, images, etc.) :

# Exemple d’en-tête HTTP (à configurer côté serveur)
X-Robots-Tag: noindex

5.4 Canonical : gérer le duplicat

Le canonical indique la version préférée :

<link rel="canonical" href="https://exemple.com/produit-x">

Pièges fréquents

5.5 Vérifier des en-têtes HTTP (redirections, cache, etc.)

Commandes utiles :

# Voir la chaîne de redirection + headers
curl -I -L https://exemple.com/page

# Tester une URL avec un user-agent Googlebot
curl -I -A "Mozilla/5.0 (compatible; Googlebot/2.1; +http://www.google.com/bot.html)" https://exemple.com/

5.6 Sitemap XML : alimenter la découverte

Un sitemap n’est pas une garantie d’indexation, mais aide à la découverte et au monitoring.

Exemple simplifié :

<?xml version="1.0" encoding="UTF-8"?>
<urlset xmlns="http://www.sitemaps.org/schemas/sitemap/0.9">
  <url>
    <loc>https://exemple.com/</loc>
    <lastmod>2026-03-01</lastmod>
  </url>
</urlset>

Bonnes pratiques


6) Performance et Core Web Vitals : optimiser sans casser le produit

Les Core Web Vitals (CWV) sont des signaux d’expérience :

6.1 Diagnostiquer

6.2 Mesures concrètes (souvent à fort ROI)

6.3 Vérifier le poids d’une page rapidement

curl -s https://exemple.com/ | wc -c

Lister les ressources (approche simple via DevTools est mieux), mais en CLI :

# Télécharger la page et extraire src/href (basique)
curl -s https://exemple.com/ | grep -Eo '(src|href)="[^"]+"' | head -n 50

7) Données structurées (Schema.org) : enrichir l’interprétation

Les données structurées aident les moteurs à comprendre le contenu et peuvent déclencher des résultats enrichis (selon éligibilité).

7.1 Formats

7.2 Exemples utiles

Article (BlogPosting)

<script type="application/ld+json">
{
  "@context": "https://schema.org",
  "@type": "BlogPosting",
  "headline": "Guide SEO technique",
  "datePublished": "2026-03-01",
  "dateModified": "2026-03-10",
  "author": {
    "@type": "Person",
    "name": "Nom Auteur"
  },
  "mainEntityOfPage": "https://exemple.com/guide-seo-technique"
}
</script>

FAQ (si réellement présent sur la page)

<script type="application/ld+json">
{
  "@context": "https://schema.org",
  "@type": "FAQPage",
  "mainEntity": [
    {
      "@type": "Question",
      "name": "Le SEO est-il gratuit ?",
      "acceptedAnswer": {
        "@type": "Answer",
        "text": "Le trafic organique ne se paie pas au clic, mais nécessite du temps, des compétences et souvent des coûts de production."
      }
    }
  ]
}
</script>

Attention : n’ajoutez pas de FAQ “fantôme”. Le contenu doit être visible et utile.

7.3 Tester


8) Contenu : produire mieux que la SERP (et durablement)

8.1 Le brief SEO (intermédiaire)

Un brief efficace contient :

8.2 Optimisation on-page (au-delà des balises)

8.3 Exemple de structure d’article “guide”

8.4 Mettre à jour plutôt que publier

Pour beaucoup de sites, le ROI est supérieur en :


9) E-E-A-T : crédibilité, expérience, confiance

E-E-A-T (Experience, Expertise, Authoritativeness, Trust) n’est pas un “score”, mais un cadre utile.

Actions concrètes

Pour les sites YMYL (santé, finance…), le niveau d’exigence est plus élevé.


10) Netlinking : qualité, pertinence, et stratégie

Le netlinking n’est pas “acheter des liens”, mais obtenir des liens pertinents et éditoriaux quand possible.

10.1 Ce qui compte vraiment

10.2 Stratégies réalistes

Avec un outil (Ahrefs/Semrush), exportez et segmentez :


11) Mesure : construire un système de pilotage

11.1 Search Console : votre meilleure base SEO

À suivre régulièrement :

11.2 GA4 : mesurer la valeur (pas seulement le trafic)

11.3 Suivi de positions : utile mais pas suffisant

Un rank tracker aide à :

Mais il ne remplace pas Search Console (données réelles).


12) Workflow d’audit SEO (checklist intermédiaire)

Voici un workflow concret, applicable en 1 à 3 jours selon taille du site.

Étape A — Santé technique (priorité)

  1. Vérifier indexation (GSC → Pages)
  2. Vérifier robots.txt et sitemaps
  3. Contrôler redirections (HTTP→HTTPS, www/non-www)
  4. Détecter erreurs 404/5xx
  5. Canonicals, noindex, pagination
  6. Performance (CWV, images, JS)

Commandes utiles :

# Vérifier robots.txt
curl -s https://exemple.com/robots.txt

# Vérifier sitemap
curl -I https://exemple.com/sitemap.xml

# Vérifier une URL (code HTTP + redirections)
curl -I -L https://exemple.com/une-page

Étape B — Contenu et structure

  1. Identifier pages à fort potentiel (positions 4–15)
  2. Détecter cannibalisation (plusieurs pages sur même intention)
  3. Améliorer briefs, enrichir, consolider
  4. Maillage interne : pages orphelines, hubs

Étape C — Popularité

  1. Pages qui méritent des liens (money pages + piliers)
  2. Plan d’acquisition (PR, partenariats, assets)
  3. Suivi mensuel (nouveaux domaines référents)

13) Cas pratiques (exemples d’actions à fort impact)

Cas 1 : CTR faible sur une page déjà bien positionnée

Symptômes :

Actions :

Cas 2 : Page en position 11–20 (quick win)

Actions :

Cas 3 : Cannibalisation

Symptômes :

Actions :


14) Bonnes pratiques de déploiement (éviter les catastrophes)

Avant mise en production

Après mise en production (J+1 à J+14)

Commande simple pour vérifier une liste d’URLs (fichier urls.txt) :

# urls.txt contient une URL par ligne
while read -r url; do
  code=$(curl -o /dev/null -s -w "%{http_code}" -L "$url")
  echo "$code $url"
done < urls.txt | tee status_codes.txt

15) Plan d’action SEO sur 30 jours (modèle)

Semaine 1 — Diagnostic & quick wins

Semaine 2 — Contenu stratégique

Semaine 3 — Performance & qualité

Semaine 4 — Popularité & mesure


16) Mini FAQ (niveau intermédiaire)

Le SEO technique suffit-il ?

Non. Sur la plupart des sites, la technique est un prérequis. Les gains durables viennent souvent de la combinaison : contenu aligné intention + maillage + popularité + expérience.

Faut-il publier souvent ?

Mieux vaut publier moins mais mieux, et surtout mettre à jour. La fréquence n’est pas un facteur direct ; la qualité et la pertinence le sont.

Les mots-clés exacts sont-ils encore importants ?

Ils aident à clarifier le sujet, mais Google comprend de mieux en mieux les variantes. Visez la couverture sémantique et la satisfaction de l’intention.

Dois-je désavouer des liens “toxiques” ?

Rarement nécessaire. Le désaveu est à utiliser avec prudence, surtout en cas de pénalité manuelle ou de schéma de liens évident.


Conclusion : votre méthode SEO intermédiaire

À ce stade, votre avantage compétitif vient d’une approche structurée :

  1. Comprendre l’intention et la SERP
  2. Construire une architecture et un maillage cohérents
  3. Assainir la technique (indexation, canonicals, performance)
  4. Produire/mettre à jour du contenu supérieur et crédible
  5. Mesurer (GSC + GA4) et itérer
  6. Renforcer la popularité avec des actifs réellement linkables

Si vous voulez, donnez-moi votre contexte (type de site, CMS, pays cible, taille, objectifs, principales pages) et je peux proposer un plan d’audit et une liste de priorités adaptée.