Les 10 erreurs SEO qui plombent la rentabilité d'une PME
Le SEO technique a mauvaise presse. C’est invisible, c’est ennuyeux, ça ressemble à du plombier informatique. Résultat : les dirigeants de PME n’y mettent ni budget ni attention. Et pendant ce temps-là, leur site continue de perdre du trafic et donc du chiffre d’affaires pour des raisons parfois ridicules — deux caractères dans un fichier, une balise oubliée, une directive placée à la mauvaise ligne.
En audit, on retrouve les mêmes dix erreurs sur huit sites PME sur dix. Chacune coûte des positions et, derrière, du CA. Voici la liste avec, pour chaque, ce qui se passe, comment le détecter, et comment corriger. Classement dans un ordre approximatif d’impact business — mais toutes ont coulé des sites.
Erreur 1 — Un robots.txt qui bloque tout le site
Deux caractères suffisent à rendre un site totalement invisible de Google : Disallow: / dans le robots.txt. Ça arrive plus souvent qu’on ne le croit. Typiquement quand un environnement de pré-prod (où ce blocage est normal) est migré en prod sans changement. Le site est en ligne, la home s’affiche, les équipes communiquent dessus. Et Google n’indexe rien.
Comment vérifier : tapez votresite.fr/robots.txt dans le navigateur. Le fichier doit lister les zones qu’on ne veut pas crawler (admin, panier, résultats de recherche interne) mais pas bloquer / en racine. En cas de doute, collez le contenu dans un LLM et demandez-lui si une directive bloque l’indexation globale.
Coût business : tant que la règle est en place, votre site existe mais n’est pas trouvable. Zéro trafic organique. Zéro leads. Zéro ventes.
Erreur 2 — Des pages stratégiques en noindex
Variante plus pernicieuse de l’erreur 1. La home s’indexe bien, mais certaines pages stratégiques — fiches produit, pages catégorie, articles piliers — portent une balise <meta name="robots" content="noindex"> qui les exclut de l’index Google. Comme pour le robots.txt, ce sont généralement des reliquats de pré-prod qu’on a oublié d’enlever après mise en production.
Comment vérifier : installer l’extension Chrome Detailed SEO Extension (gratuite). Un clic sur la page vous affiche la présence ou l’absence de la balise robots. Alternative manuelle : Ctrl+U pour voir le code source et chercher noindex.
Corriger : supprimer la balise, puis demander une réindexation via Google Search Console (soumettre l’URL). Gain typique de quelques jours sur le re-crawl.
Erreur 3 — Un sitemap XML défaillant ou absent
Le sitemap est un fichier .xml qui liste les pages qu’on veut voir indexées. Ce n’est pas un levier de ranking, c’est un facilitateur : il aide Google à découvrir vos pages plus vite, surtout sur les gros sites.
Les défauts qu’on retrouve :
- Sitemap absent (pas de
/sitemap.xml, pas de/sitemap-index.xml) - Sitemap statique jamais mis à jour, qui liste des URL supprimées depuis deux ans
- Erreurs de syntaxe XML qui rendent le fichier inexploitable
- Inclusion de pages en
noindexou bloquées parrobots.txt(contradiction)
Corriger : générer un sitemap dynamique via votre CMS ou un plugin. Le déclarer dans Google Search Console. Le mentionner aussi dans le robots.txt avec une ligne Sitemap: https://votresite.fr/sitemap.xml.
Nuance : avoir un sitemap parfait n’est pas un boost SEO direct. C’est oublier des pages importantes qui coûte, pas avoir d’anciennes pages dans le fichier.
Erreur 4 — Des pages 404 non gérées
Une erreur 404, c’est une page qui n’existe plus ou qui n’a jamais existé. Pour Google, c’est comme se prendre une porte dans le nez : désagréable une fois, problématique à répétition.
Les 404 arrivent lors de refontes mal gérées, de changements d’URL, ou quand des backlinks externes pointent vers des pages qui ont été supprimées.
Détecter : trois outils complémentaires.
- Screaming Frog pour les 404 linkées depuis l’intérieur du site
- Google Search Console (rapport Couverture) pour les 404 détectées par Google
- Ahrefs ou Semrush pour les backlinks externes qui pointent vers des pages supprimées — ces dernières sont invisibles dans Screaming Frog mais elles vous coûtent du jus
Corriger : faire une redirection 301 de l’ancienne URL vers l’équivalent actuel. Pas une redirection vers la home (c’est une pratique pénalisée), mais vers la page de contenu la plus proche.
Erreur 5 — Du contenu dupliqué involontaire
Le duplicate content, c’est quand un même contenu est accessible via plusieurs URL. Pas forcément intentionnel — c’est souvent involontaire. Les sources classiques :
www.site.fretsite.frqui coexistent sans redirection- Les versions HTTP et HTTPS qui cohabitent
- Pages filtrées (
/produits?couleur=bleu,/produits?prix=100-200) sans canonical - Paramètres de tracking (
?utm_source=...) qui créent autant d’URL que de sources - Session IDs dans l’URL sur les vieux CMS
Conséquence : Google voit plusieurs URL qui ciblent la même requête. Il dilue votre autorité entre elles, et finalement aucune ne ranke bien.
Corriger : redirections 301 pour unifier www/non-www et HTTP/HTTPS. Canonical sur les pages filtrées (voir erreur 6). Nettoyer les URL des paramètres inutiles via la configuration du CMS ou du serveur.
Erreur 6 — Des balises canonical manquantes
La canonical indique à Google quelle est la version de référence d’une page parmi plusieurs versions similaires. Elle est essentielle dans quatre cas :
- Pagination (
/blog/page/2/) - Pages avec tri ou filtre (
?sort=prix-asc) - Déclinaisons de produit (même produit en 5 couleurs = 5 URL)
- Version AMP ou mobile séparée
Sans canonical, Google invente sa propre logique pour choisir la version de référence. Parfois il choisit bien. Souvent mal. Au passage, il dilue le jus entre toutes les versions.
Corriger : ajouter dans le <head> de chaque page concernée une balise <link rel="canonical" href="https://votresite.fr/url-de-reference/">. La cible de la canonical doit être la version que vous voulez voir ranker.
Erreur 7 — Des URL avec des paramètres au lieu d’URL propres
Une URL du type /produit.php?id=1247&ref=cat3&session=X82Fg est une catastrophe SEO. Illisible pour l’utilisateur, instable pour Google, incapable de transmettre le moindre signal sémantique. Les bonnes URL sont descriptives et stables : /chaussures-running-trail/salomon-speedcross-6/.
Pour les sites existants : faire le grand ménage demande une refonte structurée avec redirections 301 massives. Ce n’est pas anodin, mais ça se planifie. Une refonte mal menée fait perdre 40 à 70 % du trafic. Une refonte bien menée le conserve ou l’amplifie.
Pour les sites neufs : démarrez directement avec une structure d’URL propre. Ça ne coûte rien à la création, ça coûte cher à rattraper.
Erreur 8 — Des pages trop profondes dans l’arborescence
Plus une page est éloignée de la home en nombre de clics, moins Google la considère comme importante. La règle : trois à quatre clics maximum depuis la home pour les pages à fort enjeu SEO.
Sur un site e-commerce classique, on veut : home → catégorie → sous-catégorie → fiche produit. Quatre clics, c’est le maximum raisonnable. Si votre fiche produit est à cinq ou six clics — catégorie / sous-catégorie / sous-sous-catégorie / filtre / tri / produit — les crawlers la visitent rarement, lui transmettent peu d’autorité, et elle ne ranke pas.
Corriger : retravailler l’arborescence. Créer des liens transverses entre les pages stratégiques. Valoriser les fiches produit les plus vendues depuis la home et les pages de catégorie via des modules “produits mis en avant”.
Erreur 9 — Un site trop lent
Le temps de chargement maximum acceptable pour Google est 3 secondes sur mobile. Au-delà, deux conséquences :
- SEO : Google déclasse progressivement les sites lents. Les Core Web Vitals (erreur 10) sont intégrés à l’algorithme depuis 2021.
- Business : au-dessus de 3 secondes, 53 % des visiteurs abandonnent avant d’avoir vu la page. Votre taux de conversion s’effondre avant même que le SEO ait quoi que ce soit à dire.
Mesurer : trois outils gratuits complémentaires.
- PageSpeed Insights (Google) pour la note globale et le rapport Core Web Vitals
- GTmetrix pour le graphique waterfall — extrêmement utile pour identifier visuellement quel élément traîne
- WebPageTest pour tester depuis différentes localisations géographiques
Corriger : les levier classiques — compression des images (WebP), lazy loading, minification du CSS/JS, cache serveur, CDN, suppression des scripts tiers superflus (chat, popup, analytics redondants).
Erreur 10 — Des Core Web Vitals défaillants
Les Core Web Vitals sont trois métriques de performance intégrées à l’algorithme Google. Les seuils “bons” :
- LCP (Largest Contentful Paint) : temps d’affichage du plus gros élément visible. < 2,5 s.
- CLS (Cumulative Layout Shift) : stabilité visuelle pendant le chargement. < 0,1.
- INP (Interaction to Next Paint) : réactivité aux interactions utilisateur. < 200 ms — ce métrique remplace FID depuis 2024.
Les causes typiques d’un LCP pourri : image hero trop lourde, police web mal chargée, script tiers bloquant. Pour CLS : images sans dimensions explicites, publicités qui s’injectent après le chargement, polices qui changent de taille (FOIT/FOUT). Pour INP : scripts JavaScript trop lourds qui bloquent le thread principal.
Mesurer : PageSpeed Insights donne les trois. Les données “Lab” sont issues d’un test synthétique, les données “Field” viennent de Chrome UX Report — ce sont les vraies, celles que Google utilise pour classer.
Corriger : pour LCP, prioriser le chargement de l’image hero avec fetchpriority="high" et précharger les polices critiques. Pour CLS, ajouter width et height explicites à toutes les images. Pour INP, réduire la charge JS et reporter le non-critique en lazy.
Bonus : les erreurs qu’on retrouve même chez les “bons” sites
Même les sites bien optimisés laissent traîner certaines erreurs.
Titles dupliqués : deux pages différentes avec le même title. Google a du mal à les départager, elles se cannibalisent. Règle : une page, un title unique, intégrant le mot-clé principal de la page.
Balises H1 et Hn mal structurées : une seule H1 par page (c’est non négociable), des H2 qui correspondent aux sections principales, puis H3/H4 pour les sous-sections. Pas de saut du H1 au H4 sans H2 ni H3 intermédiaires.
Le top 5 absolu à vérifier tout de suite
Si vous ne deviez traiter que cinq de ces erreurs avant la fin de la semaine, ce serait celles-ci :
- Le
robots.txtet les balisesnoindex— une erreur ici rend votre site invisible. À vérifier en premier avant toute autre optimisation. - Les Core Web Vitals sur mobile — impact direct sur le SEO et sur le taux de conversion. Double dividende.
- Les 404 non gérées avec backlinks externes — vous perdez du jus gratuitement. Rediriger prend cinq minutes.
- Le contenu dupliqué sur les pages stratégiques — posez des canonical, unifiez www/non-www/HTTP/HTTPS.
- Les titles dupliqués — audit Screaming Frog en 20 minutes, correction au fil de l’eau.
Ces cinq corrections ne demandent pas de budget, juste un demi-journée de travail technique. C’est l’un des rares endroits en SEO où l’effort est minimal et l’impact immédiat.
Pour conclure
Le SEO technique n’est pas l’endroit où on gagne le plus — les gros gains viennent du netlinking, du contenu et de l’intention de recherche. Mais c’est l’endroit où on perd le plus. Une seule de ces dix erreurs suffit à plafonner durablement votre visibilité, quelle que soit la qualité du reste.
La bonne nouvelle, c’est que ces erreurs sont détectables en moins d’une heure avec les outils gratuits (GSC, PageSpeed Insights, Detailed SEO Extension) ou Screaming Frog pour les gros sites. La correction demande parfois un dev, rarement du budget. Ce qu’il faut, c’est quelqu’un qui regarde.
Si vous voulez qu’on regarde votre site et qu’on vous dise, documents à l’appui, lesquelles de ces dix erreurs vous pénalisent, on le fait dans le cadre de l’audit SEO gratuit. Sans engagement, sans commerciale qui rappelle pendant six mois.
Prêt à grimper ?
30 minutes d'échange. Un audit offert. Un plan d'action clair. Zéro engagement — qu'on bosse ensemble ou non.