Il existe plusieurs obstacles techniques au référencement, il faut supprimer ces facteurs bloquant et offrir conjointement un contenu Web optimisé dans les règles de l’e-ecriture afin d’augmenter la visibilité d’un site.
Quels sont ces freins au référencement ?
Attention : Les moteurs de recherchent améliorent sans cesse leurs performances. Il se pourrait que certains points abordés soient obsolètes. Recoupez les informations avec celles d’autres sites et blogs.
Les moteurs référencent du contenu ; la présentation de contenu optimisé aux robots est une des clés de réussite du référencement.
Il faut donc éviter les index sans contenu texte, les introductions animées, les pages transitoires pour la sélection de langue, etc..
Lire à propos de contenu et de référencement : Le référencement par le contenu.
Les moteurs ne savent pas lire les textes inclus dans les animations Flash (ou pas de manière optimale), par contre, il lisent les pages HTML qui lancent les animations.
Il faut donc optimiser la page HTML en renseignant :
Il faut éviter les sites réalisés entièrement en Flash ou doubler ses pages Flash avec des pages HTML ou encore : présenter quelques pages optimisées pour être indexé par les moteurs.
En arrivant sur l’index ou page d’accueil d’un site, le robot va tenter de suivre les liens présents sur cette page afin d’indexer toutes les pages.
Un lien classique ne pose pas de problème, il est du type :
<a href= “http://www.nom-du-site.com/page-destinataire.html”> Texte du lien vers la page destinataire </a>
Un lien en JavaScript pose problème s’il est du type :
<a href=”JavaScript:window.open(‘http://www.nom-du-site.com/page-destinataire.html’, ‘newWindow’)”>Texte du lien vers la page destinataire</a>
Les liens en JavaScript sont pris en compte par les robots, mais pour cela ils doivent être compatibles avec les robots ou spiders.
En intégrant l’URL de destination dans la zone “href”, le robot va la reconnaître et la suivre pour indexer le document – cette URL est ensuite suivie du code propre à l’action proprement dite.
Un lien en JavaScript compatible est du type :
<a href=”http://www.votresite.com/page-destinataire.html”onclick=”window.open(this.href); return false;”> Texte du lien vers la page destinataire </a>
Le langage JavaScript se place dans la partie HEA> des pages : il abaisse la position des balises title et meta. Or les moteurs accordent plus de poids au texte situé en début de page et la balise title est primordiale pour le référencement ; il est essentiel de placer tout contenu optimisé le plus haut possible dans la page.
Les sites dynamiques présentent des pages générées à la volée ; l’information contenue dans ces pages est extraite d’une base de données.
L’adresse URL générée lors de la création dite dynamique de ces pages présente des caractères bloquants:
Les URL contenant jusqu’à 3 paramètres (2 &) ne posent pas de problème aux moteurs. Mais si les URL atteignent un nombre élevé de paramètres (plus de 4 paramètres, soit 3 &), elles constituent un frein.
Que faire ?
Les identifiants de session permettent de conserver des informations sur un internaute tout au long de sa visite sur un site.
Ils permettent de connaître le parcours des internautes sur un site Web, de gérer un panier d’achats sur un site e-commerce, de rester identifié sur un forum, etc.
Ces données changent à chaque visite et posent problème aux robots qui considèrent cette adresse comme une nouvelle URL à chaque fois qu’ils visitent le site.
Que faire ?
Les cookies sont des fichiers enregistrés sur l’ordinateur de l’internaute ; ils stockent des informations sur le disque dur de l’utilisateur afin de l’identifier lors d’une prochaine connexion.
Les cookies sont destinés aux navigateurs et ils ne sont pas acceptés par les robots ; ce qui constitue un frein au référencement. Il faut donc présenter une autre information aux robots afin qu’ils puissent accéder aux pages du site et les indexer.
Notons que certains utilisateurs n’acceptent pas les cookies non plus : il faut bien évidemment prévoir ce choix de navigation et tout comme pour les robots, présenter une autre information afin qu’ils puissent accéder aux pages du site.
Un site accessible par mot de passe en page d’accueil ne permet pas aux robots d’indexer vos pages (ils n’ont pas de mot de passe).
La solution :
Les tests à l’entrée du site vérifient certains paramètres : la langue, la résolution d’écran, etc. Ils ne posent pas de problème, mais il faut prévoir le cas du passage des robots et mettre en place un script afin de leur permettre d’indexer les pages.
La redirection 301 (Moved Permanently) permet de diriger le robot vers une nouvelle adresse URL, soit d’indiquer au robot qu’une page a été déplacée. L’avantage de la redirection 301 est qu’elle permet de récupérer le PageRank qui est alors transféré vers la nouvelle page.
Ce code peut être placé dans un fichier .htaccess à la racine du site et se présente comme tel :
RewriteEngine on
RewriteRule ancien_fichierl.htm [R=301]
En crawlant vos pages, le robot va recevoir cette information et va suivre la redirection.
Il faut que l’utilisation du fichier .htaccess soit possible par l’hébergeur.
L’hébergement de votre site peut être un facteur bloquant; il faut tenir compte de :
Un Robots.txt impose des limitations aux robots des moteurs de recherche en les empêchant d’accéder à certaines pages.
Des directives sont incluses dans les fichiers Robots.txt ou les balises meta robots pendant la phase de développement afin que les moteurs n’indexent pas une page (noindex), un répertoire ou le site ; lors de la mise en ligne pour le grand public, ces directives ne sont pas supprimées et nuisent au référencement du site.
Les menus déroulants et formulaires présentent du contenu visible aux robots, mais ces robots ne savent pas suivre ces liens, car ils ne sont pas spider compatible. Or, les robots ou spiders se basent sur les liens pour indexer les pages.
Seule solution donc pour contrer cet obstacle au référencement : offrir un plan du site ou passer par des services tels que Google Sitemap.
La gestion des cadres est mal prise en compte, car chaque page est divisée en plusieurs parties : la page « mère » et les pages « filles ». Les spiders considèrent souvent ces pages comme des pages distinctes et ne font pas le lien entre les pages – ils affichent alors une page orpheline, indépendamment des autres.
Si vous utilisez les frames, il faut :
Le spamdexing est sanctionné par les moteurs de recherche, il s’agit par exemple de :
Faites appel à nos services pour améliorer votre référencement naturel !
Commentaires des lecteurs
Aucun commentaire en ce moment.