Les moteurs de recherche génèrent entre 30 et 50% du trafic sur un site en moyenne. Un bon référencement dans les moteurs reste la garantie d’un trafic régulier et d’un afflux de nouveaux visiteurs. La manière dont votre contenu est rédigé influence directement la qualité de votre référencement.
Parmi les moteurs de recherche actuels, Google occupe une place prépondérante. Dans certains pays, comme chez nous en Belgique et en France, il monopolise plus de 90% du marché de la recherche. Bing, l’alternative de Microsoft, peine à rivaliser.
Ci-dessus, Google domine largement les autres moteurs de recherche.
En réalité, il existe plusieurs Google : des versions locales, ciblées linguistiquement, un moteur calibré pour répondre aux recherches mobiles, etc. Cherchez la même information sur Google France ou Google Belgique, vous ne tomberez pas sur les mêmes résultats.
Cette variabilité de la page de résultats (également appelée “SERP – search engine results page”) s’est fortement amplifiée ces derniers mois. Google personnalise désormais les résultats selon différents critères : la géolocalisation, l’historique de navigation, le réseau social, etc.
Lorsqu’un internaute effectue une recherche sur un mot clé, ou une séquence de mots clés, il obtient souvent, en retour, des milliers de résultats. Or, les statistiques d’utilisation démontrent que, très souvent, seuls les tout premiers résultats sont consultés.
Selon une étude réalisée par Search Engine Watch en avril 2011, le taux de clic moyen est de 36% sur le premier résultat organique (on différencie les résultats “organiques”, ou “naturels”, des liens publicitaires, qui commencent à manger beaucoup d’espace même chez Google). Ce taux de clic tombe à 2% pour le dixième résultat.
Source : Search Engine Watch.
Selon une étude réalisée par iProspect en 2002, les utilisateurs décident d’explorer la seconde page de résultats dans 23% des cas seulement (par défaut, une page contient dix résultats).
Pour prétendre atteindre une réelle visibilité, il est donc primordial de se situer en très bonne place dans les moteurs de recherche.
Les algorithmes des moteurs de recherche sont complexes. Ils comprennent des dizaines de critères que les experts SEO (“search engine optimization”) regroupent en trois volets essentiels :
1. Le contenu
Un moteur de recherche comme Google désire avant tout servir aux utilisateurs un contenu de qualité, pertinent par rapport à l’expression recherchée. Google tiendra compte des mots clés présents dans le code source de la page web, en accordant davantage d’attention à certains éléments clés, comme les titres par exemple.
Les balises <title> : Les mots clés contenus dans cette balise influencent fortement le positionnement, notamment sur Google. Nous vous recommandons de ne pas dépasser les 68 caractères affichés dans les pages de résultats des recherches. Si vous oubliez la balise <title>, votre page sera étiquetée “Untitled document” ou quelque chose du genre, ce qui n’est pas très attrayant.
Le contenu texte, dans le corps de la page, est également pris en compte par les moteurs de recherche. Avec une priorité pour les titres (balises <h1>, <h1>, etc.), les premiers mots de la page, les mots graissés, ainsi que les hyperliens. Les titres explicites seront avantagés. Mieux vaut titrer “Formulaire de remboursement des frais médicaux” que “Formulaire 208 C”.
Les balises <meta> : Ces informations, présentes dans le code source des pages web, sont destinées à aider les moteurs de recherche à vous référencer. La balise <meta description> est prise en compte par les moteurs, et parfois affichée dans les résultats. Elle est censée décrire le contenu de la page en moins de 200 caractères. En revanche, Google ne tient plus compte de la balise <meta keywords>. Les mots clés qu’elle contenait ont fait l’objet de trop d’abus.
L’URL de la page : Votre nom de domaine sera porteur s’il contient un nom propre ou commun susceptible d’être recherché par les internautes. Par exemple, vous préférerez www.chimie.be à www.ch1-group.be. Mais l’URL ne se limite pas à votre nom de domaine : les noms des fichiers et des répertoires ont également leur importance. Adoptez des noms de pages riches en mots clés. Utilisez les traits d’union comme séparateurs. Du genre : . Refusez les CMS qui génèrent des URL barbares sans vous en permettre la maîtrise.
La fraîcheur de l’information joue en votre faveur. Un positionnement dans les moteurs de recherche n’est jamais acquis. Laissez un site web à l’abandon et vous le verrez régresser progressivement vers les profondeurs du classement. Habituez donc Google à ce que votre site bouge, sous peine de vous faire oublier.
L’ancienneté du nom de domaine est un gage de crédibilité. Il semble que Google privilégie les sites web qui sont “dans la place” depuis plusieurs années, surtout lorsque ces derniers continuent d’actualiser leurs contenus. Un nouveau site web devra prendre son mal en patience et attendre, parfois plusieurs mois, avant d’acquérir de la visibilité.
Ci-dessus, quelques zones clés : la balise <title>, la balise <h1>, l’URL.
Lors de nos formations “écrire pour le web”, nous entraînons les participants à la rédaction optimisée pour les moteurs de recherche.
2. La popularité
Internet est devenu tellement fécond que de nombreux sites web se positionnent bien évidemment sur les mêmes mots clés. Google tente alors de faire le tri entre les pages web les plus pertinentes et les informations plus anecdotiques. Dans cet énorme jeu de ricochet de l’information auquel se livrent les acteurs du Web, les moteurs de recherche essaient tant bien que mal de distinguer l’original de la copie. L’antériorité d’un contenu peut jouer à votre avantage, mais surtout sa popularité.
Les liens entrants : Google attribue une note de 0 à 10 (le “PageRank”) à chaque page web. On parle également de la notion de “TrustRank” (indice de confiance d’une page web). Vous retiendrez surtout que la popularité se mesure essentiellement au départ des liens entrants. La quantité mais surtout la qualité des références que d’autres sites web établissent vers vous va vous être profitable. Le site web de l’université de Cambridge vient d’établir un lien vers votre dernier article ? Vous voilà bienheureux ! Un journaliste du Monde vous cite dans ses liens “pour en savoir plus” ? Et voilà que votre site remonte dans la grille de résultats.
Vous inviterez vos partenaires à faire des liens vers votre site. Par contre, vous refuserez les échanges de liens massifs, sans relation sémantique à votre contenu. Ils risquent de vous pénaliser.
Les outils pour les webmasters de Google fournissent des détails sur les liens entrants.
La popularité au sein des réseaux sociaux : le “J’aime” de Facebook, le “Retweet” de Twitter, et bien sûr le “+1” de Google Plus font partie des indicateurs de succès social d’un contenu dont Google tient de plus en plus compte aujourd’hui.
3. Le respect des standards techniques
La propreté du code source reste un élément nécessaire à la qualité de votre référencement. Google est capable d’indexer votre contenu texte HTML, éventuellement des fichiers PDF, Word ou Powerpoint, mais se heurte à davantage de difficultés lorsqu’il s’agit d’indexer d’autres formats : animations Flash, séquences vidéo, contenus dynamiques, bases de données, etc.
Respecter les standards, c’est aussi permettre aux robots de Google d’interpréter votre contenu efficacement, avec les bonnes balises et la bonne syntaxe. Avec l’avènement du Web mobile, cet aspect est encore plus important : si Google considère que votre site web n’est pas adapté à une consultation mobile, il vous déclassera.
Effectuer quelques coups de sonde sur le nom de votre marque est une approche bien trop simpliste lorsqu’il s’agit d’évaluer votre présence sur la toile.
Le top 10 des mots clés ne pèse que 15 à 20% du trafic en moyenne. La majorité du trafic provient, en réalité, de l’accumulation d’une infinie variété de microrequêtes. Trop d’attention est accordée à la tête de la longue traîne, qui porte souvent sur la marque, facile à référencer.
La meilleure manière d’évaluer l’efficacité de votre référencement aujourd’hui est de plonger dans vos statistiques de trafic et d’y consulter les volumes de visite en provenance des différents moteurs et des différentes expressions de recherche.
Google Analytics renseigne les mots clés qui génèrent du trafic.
Une astuce très utile : utiliser le filtre de Google Analytics pour concaténer les recherches liées à un même thème. Une manière de voir un peu plus clair au sein de la longue traîne.
Ci-dessus, nous filtrons tout le trafic généré au départ des recherches sur les “dictionnaires”.
Le référencement est une science complexe et en mouvement. Une science qui repose sur une triple compétence : technique, rédactionnelle et marketing. Il est donc nécessaire et appréciable que des experts s’y collent et en fassent un métier à part entière.
Cependant, nous aurions tort de penser que le recours à des professionnels du référencement est une condition indispensable pour avoir droit au chapitre. Vous pouvez atteindre une visibilité plus qu’acceptable par vous-même dans les moteurs de recherche sans pour autant faire appel à une consultance coûteuse.
Les meilleurs conseils que l’on puisse donner restent donc les suivants :
Certaines sociétés spécialisées dans le référencement jouent parfois un jeu dangereux. Elles n’hésitent pas à mettre en place des stratégies à la limite du tolérable : texte caché, pages satellites, batteries de liens surfaits, répétition abusive de mots clés, échanges de liens massifs, etc. Les spécialistes en référencement rivalisent de créativité pour faire apparaître leurs clients en première ligne. Mais les conséquences peuvent être désastreuses lorsque le moteur de recherche en vient à considérer une pratique comme inacceptable.
En février 2006, pour ne citer qu’un exemple, la société BMW a vu son site web rayé de la carte par Google pour pratiques douteuses en matière de référencement. En quelques jours, les choses sont rentrées dans l’ordre, Google ayant accepté les arguments du constructeur automobile qui, au passage, a remercié son prestataire en référencement. Mais tout le monde n’est pas logé à la même enseigne : certains sites web, placés sur la liste noire, ont bien du mal à corriger le tir.
En dehors de toute considération morale, nous sommes convaincus qu’un référencement naturel, basé sur votre contenu réel, reste une stratégie plus solide à long terme. Miser sur des artifices risque, à tout moment, de vous faire basculer dans l’ombre, de vous donner une mauvaise image et de vous distraire de votre stratégie éditoriale. Au final, même si vous attirez du trafic, ce trafic ne sera pas très qualifié. Il générera des visites peu engagées, avec des taux de conversion négligeables. Non, vraiment, rien ne vaut le contenu respectable.
Le garagiste ou le plombier qui vous fait un devis est-il le plus proche de la vérité de vos problèmes d’humidité ou d’usure moteur ? C’est loin d’être sûr (les associations de défense des droits des consommateurs sont alarmantes à cet égard). Vous resterez donc critiques face à l’offre des spécialistes en référencement. Plus elle est simpliste (“Nous allons vous placer dans le top 10 !”), moins elle est crédible.
Un bon professionnel du référencement en 2012 vous aidera à renforcer votre stratégie de contenu pour une présence maximale sur le Web. Une analyse sémantique détaillée de votre espace concurrentiel sur Internet, ainsi que des volumes et des tendances de trafic, permettra d’optimiser votre approche : choix des noms de domaine, choix des thématiques et des sous-thématiques, choix du vocabulaire, synonymie, etc. Rédacteur et référenceur travailleront, main dans la main, pour agripper la “longue traîne” (concept qui désigne la grande masse de trafic constituée par l’accumulation d’une infinie variété de requêtes). Le référenceur donnera au rédacteur les outils et les moyens de sa politique.
Source : Google Keyword Tool.
Le générateur de mots clés, un des nombreux outils utiles à votre stratégie de référencement.
Le recours à des spécialistes en référencement peut également s’avérer utile dans certains cas complexes. Notamment lorsqu’il s’agit d’indexer un site multilingue, un site construit sur des bases de données, un site contenant des frames ou du contenu en Flash, etc. Ou encore lorsqu’il est question d’optimiser votre CMS (outil de gestion de contenu) du point de vue du référencement.
Les meilleurs experts en référencement vous aideront à identifier les réseaux sociaux, les annuaires généraux et spécialisés et autres lieux qui drainent du trafic et peuvent vous en apporter.
Autre évolution : le Web mobile. L’ouvrage “Référencement mobile” d’Isabelle Canivet vous explique la méthodologie à suivre, pas à pas, pour générer une forte présence mobile.
Enfin, les sociétés spécialisées en référencement pourront vous guider à travers les solutions payantes : achat de mots clés, espaces publicitaires, liens sponsorisés, etc. Cette visibilité payante peut venir compléter votre stratégie de référencement naturel. Le référencement payant a l’avantage de la rapidité (pour des événements ou des campagnes, par exemple), là où le référencement naturel demeure une lente et patiente construction de votre présence éditoriale.
Auteur : Jean–Marc Hardy et Isabelle Canivet