Accueil » Blog » Quelques freins au référencement

Quelques freins au référencement

Il existe plusieurs obstacles techniques au référencement, il faut supprimer ces facteurs bloquant et offrir conjointement un contenu Web optimisé dans les règles de l’e-ecriture afin d’augmenter la visibilité d’un site.
Quels sont ces freins au référencement ?

  1. Page d’accueil ou index sans contenu
  2. Sites en Flash
  3. Langage JavaScript
  4. Sites dynamiques et les URL sans contenu lexical
  5. Identifiants de session – Session ID (SID)
  6. Cookies (biscuit, témoin de connexion)
  7. Accès par mot de passe
  8. Tests en entrée de site
  9. Redirections
  10. Hébergement
  11. Fichiers Robots.txt
  12. Menus déroulants et formulaires
  13. Cadres ou frames
  14. Spamdexing (ou la fraude au référencement)

Attention : Les moteurs de recherchent améliorent sans cesse leurs performances. Il se pourrait que certains points abordés soient obsolètes. Recoupez les informations avec celles d’autres sites et blogs.

1. Page d’accueil ou index sans contenu

Les moteurs référencent du contenu ; la présentation de contenu optimisé aux robots est une des clés de réussite du référencement.

Il faut donc éviter les index sans contenu texte, les introductions animées, les pages transitoires pour la sélection de langue, etc..

Lire à propos de contenu et de référencement : Le référencement par le contenu.

2. Les sites en Flash

Les moteurs ne savent pas lire les textes inclus dans les animations Flash (ou pas de manière optimale), par contre, il lisent les pages HTML qui lancent les animations.

Il faut donc optimiser la page HTML en renseignant :

  • La balise title : inclure des mots clés et un descriptif ;
  • La balise meta : inclure des mots clés et un descriptif ;
  • La balise noembed : c’est la balise d’insertion des animations Flash dans les pages HTML, il faut ajouter du texte descriptif sans abuser.

Il faut éviter les sites réalisés entièrement en Flash ou doubler ses pages Flash avec des pages HTML ou encore : présenter quelques pages optimisées pour être indexé par les moteurs.

3. Le langage JavaScript

En arrivant sur l’index ou page d’accueil d’un site, le robot va tenter de suivre les liens présents sur cette page afin d’indexer toutes les pages.

Un lien classique ne pose pas de problème, il est du type :

<a href= “http://www.nom-du-site.com/page-destinataire.html”> Texte du lien vers la page destinataire </a>

Un lien en JavaScript pose problème s’il est du type :

<a href=”JavaScript:window.open(‘http://www.nom-du-site.com/page-destinataire.html’, ‘newWindow’)”>Texte du lien vers la page destinataire</a>

Les liens en JavaScript sont pris en compte par les robots, mais pour cela ils doivent être compatibles avec les robots ou spiders.

En intégrant l’URL de destination dans la zone “href”, le robot va la reconnaître et la suivre pour indexer le document – cette URL est ensuite suivie du code propre à l’action proprement dite.

Un lien en JavaScript compatible est du type :

<a href=”http://www.votresite.com/page-destinataire.html”onclick=”window.open(this.href); return false;”> Texte du lien vers la page destinataire </a>

Le langage JavaScript se place dans la partie HEA> des pages : il abaisse la position des balises title et meta. Or les moteurs accordent plus de poids au texte situé en début de page et la balise title est primordiale pour le référencement ; il est essentiel de placer tout contenu optimisé le plus haut possible dans la page.

4. Les sites dynamiques et les URL sans contenu lexical

Les sites dynamiques présentent des pages générées à la volée ; l’information contenue dans ces pages est extraite d’une base de données.

L’adresse URL générée lors de la création dite dynamique de ces pages présente des caractères bloquants:

  • Le point d’interrogation : ?
  • L’esperluette : &

Les URL contenant jusqu’à 3 paramètres (2 &) ne posent pas de problème aux moteurs. Mais si les URL atteignent un nombre élevé de paramètres (plus de 4 paramètres, soit 3 &), elles constituent un frein.

Que faire ?

  • Créer et présenter également, à côté des pages dynamiques, des pages de contenu qui ont une adresse URL statique hébergée sur votre site.
  • Optimiser les pages Web qui ne nécessitent pas de paramètres (page d’accueil, la page de présentation, le plan du site, présentation générale des produits, etc.) et les présenter avec des URL simples sans caractères spéciaux.
  • Passer par un référencement payant.
  • Pratiquer l’URL rewriting pour présenter des URL propres, sans caractères spéciaux comme “?” ou “&” aux robots.

5. Les identifiants de session – Session ID (SID)

Les identifiants de session permettent de conserver des informations sur un internaute tout au long de sa visite sur un site.

Ils permettent de connaître le parcours des internautes sur un site Web, de gérer un panier d’achats sur un site e-commerce, de rester identifié sur un forum, etc.

Ces données changent à chaque visite et posent problème aux robots qui considèrent cette adresse comme une nouvelle URL à chaque fois qu’ils visitent le site.

Que faire ?

  • Eviter les identifiants de session en page d’accueil et les garder pour la navigation profonde du site.
  • Pratiquer l’URL rewriting.
  • Créer des pages statiques pour la présentation de produits qui ne nécessitent pas d’identifiants de session.
  • Utiliser les cookies (moins problématiques) plutôt que les identifiants de session.

6. Les cookies (biscuit, témoin de connexion)

Les cookies sont des fichiers enregistrés sur l’ordinateur de l’internaute ; ils stockent des informations sur le disque dur de l’utilisateur afin de l’identifier lors d’une prochaine connexion.

Les cookies sont destinés aux navigateurs et ils ne sont pas acceptés par les robots ; ce qui constitue un frein au référencement. Il faut donc présenter une autre information aux robots afin qu’ils puissent accéder aux pages du site et les indexer.

Notons que certains utilisateurs n’acceptent pas les cookies non plus : il faut bien évidemment prévoir ce choix de navigation et tout comme pour les robots, présenter une autre information afin qu’ils puissent accéder aux pages du site.

7. Les accès par mot de passe

Un site accessible par mot de passe en page d’accueil ne permet pas aux robots d’indexer vos pages (ils n’ont pas de mot de passe).

La solution :

  • Proposer des pages grand public pour acquérir une visibilité minimale et supprimer le mot de passe d’entrée de jeu.
  • Créer une zone protégée par mot de passe pour les membres.

8. Les tests en entrée de site

Les tests à l’entrée du site vérifient certains paramètres : la langue, la résolution d’écran, etc. Ils ne posent pas de problème, mais il faut prévoir le cas du passage des robots et mettre en place un script afin de leur permettre d’indexer les pages.

9. Les redirections

La redirection 301 (Moved Permanently) permet de diriger le robot vers une nouvelle adresse URL, soit d’indiquer au robot qu’une page a été déplacée. L’avantage de la redirection 301 est qu’elle permet de récupérer le PageRank qui est alors transféré vers la nouvelle page.
Ce code peut être placé dans un fichier .htaccess à la racine du site et se présente comme tel :

RewriteEngine on
RewriteRule ancien_fichierl.htm [R=301]
En crawlant vos pages, le robot va recevoir cette information et va suivre la redirection.
Il faut que l’utilisation du fichier .htaccess soit possible par l’hébergeur.

10. L’hébergement

L’hébergement de votre site peut être un facteur bloquant; il faut tenir compte de :

  • La réputation de l’hébergeur :
    Si vous êtes sur un serveur mutualisé, donc partagé par plusieurs sites, vous pouvez être pénalisé par un moteur de recherche qui bloque l’adresse IP d’un site ayant trop spammé son index. Une solution : passer du serveur mutualisé au serveur dédié.
  • L’accessibilité du serveur et la fiabilité :
    Votre site doit être accessible en permanence pour être visible, notamment lors du passage des robots. Mais d’autres critères doivent être pris en compte pour assurer une continuité du service d’hébergement : l’ancienneté, la réactivité et l’évolutivité. Il faut donc vérifier la garantie sur la disponibilité du serveur proposé.
  • Un hébergement gratuit n’est pas un frein majeur mais il peut en revanche s’avérer problématique pour réaliser une opération telle que l’URL Rewritting; il pose également le problème de la pérennité avec le risque de fermeture du service.

11. Robots.txt

Un Robots.txt impose des limitations aux robots des moteurs de recherche en les empêchant d’accéder à certaines pages.

Des directives sont incluses dans les fichiers Robots.txt ou les balises meta robots pendant la phase de développement afin que les moteurs n’indexent pas une page (noindex), un répertoire ou le site ; lors de la mise en ligne pour le grand public, ces directives ne sont pas supprimées et nuisent au référencement du site.

Les menus déroulants et formulaires présentent du contenu visible aux robots, mais ces robots ne savent pas suivre ces liens, car ils ne sont pas spider compatible. Or, les robots ou spiders se basent sur les liens pour indexer les pages.

Seule solution donc pour contrer cet obstacle au référencement : offrir un plan du site ou passer par des services tels que Google Sitemap.

13. Les cadres ou frames

La gestion des cadres est mal prise en compte, car chaque page est divisée en plusieurs parties : la page « mère » et les pages « filles ». Les spiders considèrent souvent ces pages comme des pages distinctes et ne font pas le lien entre les pages – ils affichent alors une page orpheline, indépendamment des autres.

Si vous utilisez les frames, il faut :

  • Optimiser la page mère :
    1. Balise title riche en mots clés.
    2. Balises meta descriptives et riches en mots clés.
    3. Balise noframes incluant des mots clés et un descriptif du site.
    4. Ajouter un lien vers les fichiers des pages filles en l’incluant entre les balises A (la balise lien).
  • Optimiser les pages filles :
    1. Etablir le lien avec la page “mère” en ajoutant un code javascript dans les pages filles.
    2. Inclure des titres riches en mots clés.
    3. Rédiger des meta riches en mots clés.

14. Spamdexing (ou la fraude au référencement)

Le spamdexing est sanctionné par les moteurs de recherche, il s’agit par exemple de :

  • La création de pages spécifiques pour le référencement : « pages alias », « pages satellites », « doorway pages » ou « pages fantômes ». Ces pages sont optimisées pour être bien positionnées sur les moteurs. Elles sont présentées lors de la visite de l’internaute et contiennent une redirection vers le vrai site.
  • La création de texte et liens cachés dans les pages. Ce sont les fonctions “visibility:hidden” ou “display:none”, l’utilisation de balises “noscript” n’ayant aucun rapport avec la balise “script” qu’elles accompagnent.
  • La pratique du cloaking (camouflage) qui consiste en la création d’une page satellite qui est présentée lors de la visite du robot. Le site Web peut envoyer différents contenus selon si la page est demandée par un utilisateur ou par un moteur de recherche.
  • Spam de recherche : il s’agit de la création d’un grand nombre de pages sans contenu réel mais dont le but est d’entrer dans les moteurs de recherche, quel que soit le mot clé demandé.
  • Spam de commentaires : c’est l’envoi d’un nombre massif de commentaires sur les blogs, forums ou autres espaces Web mentionnant un lien vers le site de l’auteur afin de faire monter sa position.
  • Réaffectation d’un domaine : c’est l’achat d’un site Web qui possède une bonne quotation dans les moteurs de recherche et le remplacement du contenu existant par un autre contenu tout à fait différent.

Faites appel à nos services pour améliorer votre référencement naturel !

Commentaires des lecteurs

Aucun commentaire en ce moment.

Votre commentaire

Your email address will not be published.

Je suis un humain*

This site uses Akismet to reduce spam. Learn how your comment data is processed.