Aujourd'hui, produire du bon contenu ne suffit plus.
A force de réaliser des audits de référencement, nous avons voulu partager avec vous les obstacles les plus courants. Dans ce dossier, découvrez 15 freins SEO (vraiment) fréquents chez nos clients !
Le saviez-vous ? Dans 30% des audits SEO que nous menons, la page d’accueil est dupliquée sur plusieurs URL : www.nomdusite.com, http://nomdusite.com, www.nomdusite.com, www.nomdusite.com/index.php, etc.
Toutes ces URL se font concurrence. Elles contiennent chacune une balise canonique censée indiquer aux moteurs qu'elles sont "LA" page de référence à afficher en priorité dans les résultats de recherche. A force de vouloir toutes s'imposer, elles risquent de rester sur le trottoir.
Par exemple, les deux versions de cette même page bénéficient toutes les deux de backlinks (liens entrants issus de sites tiers). Le "jus de lien" se dilue entre les deux versions. Vous déforcez le référencement de votre page clé. Au lieu d'une seule page possiblement très populaire, vous en avez deux ou trois moins fameuses.
Autre conséquence : vos analyses de trafic pour cette page se complexifient. Il vous faut additionner les résultats des différentes versions de la page pour parvenir à une vue globale du trafic. Un vrai boulot comptable !
Enfin, la mise à jour de ces contenus se complique et augmente la charge de travail. Avec le risque évident d'oublier une version et de se retrouver avec des contenus chaotiques, non seulement concurrents, mais également incohérents.
Le cas d’une page d’accueil en noindex, quelques semaines après le lancement du nouveau site, n’est pas un cas isolé. Qui dit page visitée, dit page populaire générant des backlinks, un des trois facteurs SEO les plus importants pour Google. Seulement voilà, en noindex, ces pages n’en profitent pas.
Déjà entendu 2 mois après le lancement du site :
"Oh mince, le développeur a oublié de retiré le noindex"
Parfois, il s'agit de pages intérieures, comme un produit phare ou l'entrée d'un catalogue de produits. Dans vos statistiques, le taux d’entrée de ces pages sera très faible en comparaison de leur taux de visite. Normal, puisque ces pages sont privées du trafic issu des moteurs de recherche.
Ne jouez pas à la pêche aux huitres avec Google ! Une page enfouie au 5e ou au 10e niveau de votre arborescence n'aura pas beaucoup de chances de remonter dans les résultats de recherche.
Les robots ne les explorent pas. Elles sont très mal indexées. Elles bénéficient de peu de liens internes entrants et de quasiment aucun backlink. Vous avez beau retravailler les balises, les mots clés, le volume de contenu, faire des mises à jour de ce dernier, optimiser les images, rien n’y fait. Et pour cause !
Dans cet exemple, un grand nombre de pages sont enfouies au 10e niveau de l'arborescence. Leur référencement est, sans surprise, quasi inexistant.
Certaines pages « orphelines » ne sont pas rattachées à l’arborescence. Les utilisateurs n’en soupçonnent pas l’existence. Certains les découvrent par hasard, en suivant les liens internes, mais sont incapables de les retrouver par la suite. Le fil d’Ariane ne leur est bien sûr d’aucune aide. Dites-vous bien que si un chemin est difficile à suivre pour vos utilisateurs, il le sera tout autant pour les robots, qui aiment les eaux claires en surface.
Des mots clés trop génériques, trop compétitifs ou qui ne correspondent pas aux recherches naturelles effectuées par votre cible ne vous apporteront pas le trafic que vous attendez.
Quelques problèmes fréquents :
Dans cet exemple, sur certains mots clés trop génériques, les taux de clic sont insuffisants en regard de la position obtenue dans le moteur de recherche. Les utilisateurs recherchent sans doute des informations plus précises, et ne trouvent apparemment pas leur bonheur dans vos propositions.
Plusieurs raisons peuvent expliquer que le moteur se désintéresse de vos photos de produits dans un contexte où Google Images pourrait vous faire grand bien.
Première possibilité : le robots.txt bloque l’accès au dossier contenant les images, ou bien les images sont gérées dans un module de visionnage qui est inaccessible aux moteurs.
Ci-dessus, le fichier robots.txt empêche les robots d'accéder aux images.
Autre grand classique : des noms de fichiers obscurs, du type img_5012.jpg sont repris en guise d’attribut alt. Cet attribut fournit la seule information digestible par des robots qui, dépourvus du sens de la vue, ont besoin d'une description textuelle pour pouvoir indexer l'image.
Pour certains de nos clients dans le secteur de la mode ou du prêt-à-porter, où l'image est reine, les mots clés descriptifs des photos sont une pièce maîtresse de la stratégie SEO.
En cause, un lien JavaScript problématique dans un menu déroulant, par exemple. Les pages de destination ne sont en conséquence pas explorées par les robots.
Par mégarde, il peut également arriver que des liens internes soient définis en nofollow. Les robots se trouveront face à une impasse déclarée. Aucun poids ne sera attribué aux pages de destination et les pages qui contiennent ces liens verront leur jus de notoriété se vider en pure perte.
Dans cet exemple, la filiale nordique d'un de nos clients avait laissé traîner un attribut nofollow. Les moteurs n'allaient pas voir plus loin.
Faute de gouvernance au sein du groupe, les filiales qui vendent les mêmes produits ou services se positionneront toutes sur les mêmes mots clés. En particulier les mots clés liés à des marques de produits.
Pas besoin de commenter cet exemple : la concurrence interne est éloquente.
Cette rationalisation vaut également pour le SEA. Avec le système aux enchères pratiqué par Adwords, le prix au clic des mots clés pourrait augmenter en raison de la concurrence... interne ! Et ce, même sur des mots clés Trademark ! La concurrence est déjà assez rude comme cela, n'en rajoutez pas une couche.
Votre site a effectué une migration, mais l'ancien sitemap SEO a été embarqué au passage. En résulte une avalanche d’erreurs 404 et des robots qui s’y perdent.
Le sitemap erroné ne propulse pas vos nouvelles URL. De plus, vous n’avez aucune visibilité sur le pourcentage de nouvelles URL indexées.
Pour pouvoir suivre correctement l'évolution du taux d'indexation de vos pages par les moteurs de recherche, il est indispensable de mettre à jour votre sitemap.
Vous pensez que tous les liens vous font du bien ? Détrompez-vous ! Voici les problèmes les plus fréquents que nous rencontrons lors de nos audits :
Un audit de la qualité des liens entrants vous permettra de faire le ménage. Comme en psychologie, mieux vaut parfois rompre que maintenir un lien nocif ;-)
Cela concerne en particulier les pages avec peu de contenu, de sorte que le volume de contenu commun à toutes les pages (menu de navigation, blocs récurrents, en-tête, pied-de-page, scripts) finit par prendre plus de place que le coeur de contenu.
Les robots considèrent que ces pages sont dupliquées, car le contenu répété y est plus important que le contenu original. Souvent, elles se retrouvent dans l’index secondaire de Google, perdant ainsi toute visibilité.
Ce risque est très présent pour les catalogues de produits, aussi bien en B2B qu'en B2C. En effet, il n'est pas forcément évident de différencier le descriptif de produits qui subissent, de fait, des variations minimes. Une poudre à lessiver "lavande" ou une poudre à lessiver "fraîcheur marine" lessivent toutes deux, n'est-ce pas ?
Le problème peut venir d'une mauvaise optimisation du fichier PDF lui-même, ou bien de la page web qui l'accueille. Certains modules utilisés pour présenter les PDF de manière plus attractive sont une véritable catastrophe pour le référencement !
N'oubliez pas de remplir les métadonnées prévues par le format PDF. Elles aideront à son référencement.
Le saviez-vous ? Du point de vue SEO, le contenu, c'est comme les pommes. Quelques pommes pourries peuvent contaminer le panier.
Voici quelques problèmes fréquemment rencontrés :
Résultat dans tous les cas : des taux de rebond élevés et rapides, une impuissance à générer des backlinks et un taux d’engagement très faible (pas de seconde visite, par exemple). Un ensemble de signaux que Google interprétera comme des indicateurs de pauvreté de la page... et du site ! Et c'est bien là que vous devez redoublez de vigilance.
Le ratio contenu / publicité est une clé pour certains médias populaires, comme Gala dans notre exemple, qui surfent sur la crête de la vague, désirant maximiser les revenus sans obtenir un carton rouge.
Même s'il s'agit ici du B.A.-BA du référencement éditorial et d'un point très facile à vérifier, 99% de nos audits SEO sont concernés ;-)
Parmi les problèmes fréquents :
La hiérarchie des titres n’est pas souvent respectée. Par exemple, un titre h1 est suivi d’un h4... les h2 et h3 se sont fait la malle !
Ici encore, il est fréquent que les titres ne soient pas optimisés. Par exemple, les titres des produits correspondent au code de référence ou au nom marketing donné par l’entreprise (brand keywords), sans aucune autre expression qui colle aux recherches mots clés naturelles côté client. En d'autres termes, les personnes qui ne connaissent pas le produit ont peu de chance de le trouver.
Au cours de nos audits, nous analysons notamment la longueur des balises title et meta description, afin de corriger les balises trop maigres ou trop lourdes.
A nouveau, nous allons devoir jouer les détectives SEO, car plusieurs facteurs peuvent expliquer la lenteur d'un site web. Par exemple, des ressources peuvent être bloquées par votre propre robots.txt ou celui de sites tiers, mais qui sont nécessaires au bon fonctionnement d’un module présent sur votre site.
Parmi les causes les plus fréquentes :
Google vous permet de tester en ligne la rapidité de vos pages web.
La Search Console est l'espace que Google met à votre disposition pour suivre votre référencement. Nous sommes saisis de constater le nombre d'entreprises qui n'ont même pas ouvert un compte, pourtant gratuit, et au plus près de la source.
Dans certains cas, la Search Console a été créée, mais n’est pas correctement paramétrée. Un exemple : vous avez procédé à un transfert de protocole (migration de http vers https), mais dans le rush, vous avez oublié de configurer la propriété dans la Search Console et par automatisme, vous consultez sur la Search Console, les statistiques de trafic des URL en http… qui sont en train de s’écrouler, bien sûr.
Autre cas de figure très fréquent : vous n’avez pas relié la Search Console à Google Analytics, vous privant ainsi d’une quantité de données précieuses lors de votre analyse.
Très souvent encore, il existe des imperfections de marquage de vos pages web. En résultent des chiffres erronés et des analyses biaisées.
************
Assurez-vous qu’aucun frein ne handicape votre référencement ! Faites un audit SEO.
Pas le temps de suivre votre site ? Optez pour notre formule de monitoring de site (un rapport de vigilance hebdomadaire sur tout ce qui a trait à votre trafic et aux anomalies techniques).