← Retour aux tutoriels

Sujet à définir : guide SEO en français (niveau intermédiaire)

seomarketing-digitalcontenumots-clesoptimisation-on-page

Sujet à définir : guide SEO en français (niveau intermédiaire)

Ce tutoriel est un guide pratique et approfondi du SEO (Search Engine Optimization) destiné à un niveau intermédiaire : vous connaissez déjà les bases (mots-clés, balises title, meta description, backlinks), et vous voulez maintenant structurer une démarche, auditer, mesurer, et optimiser avec méthode. L’objectif est de vous donner un cadre reproductible, des checklists, et des commandes réelles (CLI) pour diagnostiquer un site.


1) Objectifs SEO : ce que vous optimisez vraiment

Avant d’optimiser, clarifiez ce que Google (et les autres moteurs) essaient de mesurer :

Un bon SEO intermédiaire consiste à aligner l’intention, réduire la friction technique, et augmenter la valeur perçue (contenu + signaux externes).


2) Recherche de mots-clés : passer de “liste” à “stratégie”

2.1 Comprendre l’intention de recherche

Une requête n’est pas qu’un mot-clé : c’est une intention. Catégories fréquentes :

Méthode : pour chaque mot-clé cible, notez :

2.2 Construire une carte thématique (topic cluster)

Au lieu d’optimiser page par page sans plan, construisez des clusters :

Les satellites alimentent la page pilier via le maillage interne, et la page pilier redistribue l’autorité.

2.3 Extraire des idées depuis vos données (Search Console)

Si vous avez accès à Google Search Console, exportez les requêtes et pages, puis cherchez :


3) Audit technique : explorer, indexer, comprendre

3.1 Vérifier robots.txt et sitemap.xml

robots.txt doit permettre l’exploration des pages utiles et bloquer les zones privées/techniques.

Commandes :

curl -I https://example.com/robots.txt
curl -s https://example.com/robots.txt

Sitemap :

curl -I https://example.com/sitemap.xml
curl -s https://example.com/sitemap.xml | head

Points à contrôler :

3.2 Contrôler les codes HTTP à grande échelle

Avec wget ou curl, vous pouvez tester rapidement des URLs.

Exemple simple :

curl -I https://example.com/page

Pour une liste d’URLs (fichier urls.txt) :

while read -r url; do
  code=$(curl -o /dev/null -s -w "%{http_code}" "$url")
  echo "$code $url"
done < urls.txt

À interpréter :

3.3 Détecter les chaînes de redirection

Une chaîne de redirection (A → B → C) ralentit et dilue.

curl -s -I -L https://example.com/ancienne-page | grep -E "HTTP/|location:"

Bonnes pratiques :

3.4 Canonicalisation : éviter les doublons

Les doublons proviennent souvent de :

Vérifiez la balise canonical :

curl -s https://example.com/page | grep -i '<link rel="canonical"'

Règles :

3.5 Pagination et facettes (e-commerce)

Pour les catégories paginées :

Pour les facettes (filtres) :


4) Performance et Core Web Vitals : optimiser ce qui compte

Les Core Web Vitals sont des signaux d’expérience. Sans viser la perfection, vous devez éviter les “mauvais” scores.

4.1 Mesurer avec Lighthouse (CLI)

Installez Node.js puis :

npm install -g lighthouse
lighthouse https://example.com --view --only-categories=performance,seo

Pour générer un rapport JSON exploitable :

lighthouse https://example.com \
  --only-categories=performance,seo \
  --output=json \
  --output-path=./rapport-lighthouse.json

4.2 Diagnostiquer les ressources lourdes

Lister les fichiers les plus lourds (approche simple via curl + grep est limitée). Pour une analyse plus robuste, utilisez Lighthouse ou Chrome DevTools.

Optimisations fréquentes :

Vérifier certains headers :

curl -I https://example.com/assets/app.css
curl -I https://example.com/assets/app.js

Cherchez :


5) Architecture de site et maillage interne : distribuer l’autorité

5.1 Règle des “3 clics” (à nuancer)

L’idée : une page importante ne devrait pas être enterrée. En pratique :

5.2 Construire des hubs

Un hub (page catégorie / guide) :

5.3 Ancres de lien : naturelles mais descriptives

Bon :

Moins bon :

Évitez la suroptimisation (répéter exactement la même ancre partout).

5.4 Détecter les pages orphelines

Une page orpheline (sans liens internes) est difficile à découvrir. Si vous avez un export de toutes les URLs (depuis sitemap + crawl), comparez-le à une liste d’URLs réellement liées.

Approche simple : récupérer les liens d’une page (limité mais utile) :

curl -s https://example.com | grep -Eo 'href="[^"]+"' | head

Pour un audit sérieux, utilisez un crawler (Screaming Frog, Sitebulb) ou un script plus avancé.


6) SEO on-page : optimiser sans “sur-optimiser”

6.1 Title : promesse + mot-clé + différenciation

Un bon title :

Exemple :

6.2 Hn : structure logique

6.3 Contenu : répondre mieux que la SERP

Pour dépasser les pages déjà en place, vous devez :

6.4 E-E-A-T (Expérience, Expertise, Autorité, Fiabilité)

Sans “tricher”, vous pouvez renforcer la confiance :


7) Données structurées (Schema.org) : enrichir la compréhension

Les données structurées aident les moteurs à interpréter le contenu. Elles ne garantissent pas un rich result, mais augmentent la clarté.

7.1 Exemple JSON-LD (Article)

<script type="application/ld+json">
{
  "@context": "https://schema.org",
  "@type": "Article",
  "headline": "Guide SEO intermédiaire",
  "author": {
    "@type": "Person",
    "name": "Nom Prénom"
  },
  "datePublished": "2026-01-10",
  "dateModified": "2026-04-01"
}
</script>

7.2 FAQ (si pertinent)

N’ajoutez une FAQ balisée que si la FAQ existe réellement sur la page.

<script type="application/ld+json">
{
  "@context": "https://schema.org",
  "@type": "FAQPage",
  "mainEntity": [
    {
      "@type": "Question",
      "name": "Combien de temps pour voir des résultats SEO ?",
      "acceptedAnswer": {
        "@type": "Answer",
        "text": "Souvent 4 à 12 semaines pour des gains sur des requêtes accessibles, et plusieurs mois pour des requêtes compétitives."
      }
    }
  ]
}
</script>

Testez votre page avec l’outil officiel de Google (test des résultats enrichis) et corrigez les erreurs.


8) Journalisation serveur (log analysis) : comprendre le crawl réel

À niveau intermédiaire, l’analyse de logs est un levier puissant : vous voyez ce que Googlebot visite vraiment.

8.1 Exemple : filtrer Googlebot dans des logs (Linux)

Supposons un fichier access.log (format Nginx/Apache). Filtrer Googlebot :

grep -i "googlebot" access.log | head

Compter les hits Googlebot :

grep -i "googlebot" access.log | wc -l

Extraire les URLs les plus crawlées (approche générique, dépend du format) :

grep -i "googlebot" access.log | awk '{print $7}' | sort | uniq -c | sort -nr | head -50

Interprétation :

Attention : le champ $7 dépend du format de log. Adaptez l’awk selon votre configuration.


9) Mesure SEO : KPI, segmentation, et priorisation

9.1 KPI utiles (intermédiaire)

Segmentez par :

9.2 Quick wins : méthode simple

Priorisez les actions avec :

Exemples de quick wins :


10) Stratégie de contenu : produire moins, produire mieux

10.1 Mise à jour vs création

Souvent, mettre à jour une page existante est plus rentable que créer une nouvelle page :

Checklist de mise à jour :

10.2 Cannibalisation : quand deux pages se gênent

Symptômes :

Solutions :


11) Netlinking : approche pragmatique et durable

11.1 Ce qui marche (durablement)

Sans outils payants, vous êtes limité, mais vous pouvez déjà :


12) International et multilingue : hreflang (si concerné)

Si vous avez plusieurs langues/pays, utilisez hreflang correctement.

Points clés :

Vérifier la présence de hreflang :

curl -s https://example.com/fr/page | grep -i "hreflang"

13) Sécurité et SEO : HTTPS, mixed content, et confiance

Vérifiez que tout est en HTTPS et qu’il n’y a pas de contenu mixte (ressources HTTP).

Tester une URL :

curl -I http://example.com
curl -I https://example.com

Vous voulez :


14) Plan d’action SEO (modèle opérationnel)

Voici un plan réaliste sur 4 à 8 semaines, adaptable :

Semaine 1 : Diagnostic et priorités

Semaine 2 : Corrections techniques critiques

Semaine 3 : Quick wins on-page

Semaine 4 : Maillage interne

Semaines 5–8 : Contenu + popularité


15) Checklists finales

15.1 Checklist technique

15.2 Checklist contenu

15.3 Checklist popularité


16) Annexes : commandes utiles (récapitulatif)

Tester un header HTTP :

curl -I https://example.com/page

Suivre les redirections :

curl -s -I -L https://example.com/page | grep -E "HTTP/|location:"

Extraire une canonical :

curl -s https://example.com/page | grep -i '<link rel="canonical"'

Vérifier robots et sitemap :

curl -s https://example.com/robots.txt
curl -s https://example.com/sitemap.xml | head

Lighthouse (performance + SEO) :

npm install -g lighthouse
lighthouse https://example.com --only-categories=performance,seo --view

Filtrer Googlebot dans des logs :

grep -i "googlebot" access.log | awk '{print $7}' | sort | uniq -c | sort -nr | head

Conclusion

Le SEO intermédiaire n’est plus une suite de “trucs” isolés : c’est une discipline de diagnostic et d’arbitrage. En combinant :

vous obtenez des résultats plus stables et plus prédictibles.

Si vous me donnez le type de site (blog, SaaS, e-commerce, local), le CMS (WordPress, Shopify, custom) et un objectif (leads, ventes, notoriété), je peux adapter ce guide en plan d’audit et roadmap avec priorités chiffrées.