Accueil » Blog » Tests de variantes d’interface

Tests de variantes d’interface

Google Analytics s’est considérablement enrichi ces derniers mois au point d’offrir bien plus qu’un baromètre de votre trafic.

Une nouveauté qui fera le bonheur des ergonomes : la fonction “Tests” qui s’est rajoutée au menu “Contenu”, parmi les options disponibles dans la colonne de gauche.

La fonction "Test" dans Google Analytics

Auparavant, Google proposait le test de variantes d’interfaces à travers un outil dédié : Google Website Optimizer. Mais, soyons honnêtes, pas un client dans mon entourage n’en faisait un usage probant.

Désormais, Google Analytics intègre la possibilité de tester des variantes d’interfaces. Démarrer un test est un jeu d’enfants. 2 minutes montre en main.

Voici les étapes à suivre :

  1. Créez une ou plusieurs variantes d’une page originale (la variante peut porter aussi bien sur le texte que sur des éléments de design).
  2. Mettez en ligne les variantes sous des URL distinctes.
  3. Dans le menu « Contenu > Tests », démarrez un test et signalez à Google les différentes versions de la page.
  4. Déterminez un objectif, sous la forme d’une page cible (Google vous indiquera par la suite quelle version génère le meilleur taux de clic vers la page cible).
  5. Google fait le reste : il propose l’une puis l’autre version, en alternance, aux utilisateurs, et calcule les taux de clic. Vous pouvez suivre les données du test en temps réel.
  6. Lorsque Google estime avoir collecté des données suffisantes (sur base d’un calcul statistique de la marge d’erreur), il désigne la version « gagnante » — celle qui génère le meilleur taux de clic vers la page cible.

Un exemple…

Ci-dessous, sur la page d’accueil de mon site redaction.be, je teste actuellement une légère variante. Je désire mesurer l’effet d’un lien graissé et d’un changement de libellé, afin de vérifier quelle version donne le plus envie d’explorer les archives de mes articles.

Variante d'interface n°1     Variante d'interface n°2

Les données restent actuellement insuffisantes (Google Analytics n’a pas encore désigné le gagnant). Mais tout de même une différence de +20% de trafic généré par la version graissée.

Comparaison des taux de clic entre deux variantes d'interface avec Google Analytics

Notez que dans le cas présent, je travaille non pas avec la totalité du trafic, mais uniquement le segment des “nouveaux visiteurs”. En effet, mon objectif est ici de valoriser mes anciennes productions éditoriales auprès de lecteurs en phase de découverte.

Votre site web, transformé en laboratoire

Autant vous dire que les possibilités de variables à tester sont innombrables. Par exemple :

  • Le style des accroches
  • La taille des boutons
  • La couleur des boutons
  • La position des boutons
  • Le libellé des boutons
  • La réactivité du bouton au passage de la souris
  • La taille des caractères
  • La police de caractères
  • Les espaces et zones de respiration
  • Le libellé des hyperliens
  • Le format des hyperliens
  • Le nombre de liens
  • La longueur des textes
  • Le choix des photos
  • L’environnement visuel
  • Le prix des produits
  • L’argumentaire produit
  • Et bien d’autres choses encore

Certes, cette fonctionnalité ne remplace pas le véritable test utilisateur, qui permet une analyse beaucoup plus qualitative, la verbalisation du ressenti et l’observation d’une expérience qui ne se résume pas à des taux de clic. Il n’en reste pas moins que le test de variantes d’interfaces est un petit bijou désormais à la portée de n’importe quel webmaster.

Vous désirez une consultance Google Analytics sous l’angle de l’optimisation des interfaces ? Contactez-nous !

Commentaires des lecteurs

  • Comment by Hugues — 9 November 2012

    C’est dommage que tu modifies deux variables à la fois dans (mise en page et copy). J’aurais été curieux de voir les résultats du copy “Tous nos articles depuis 2003” (qui a première vu semble très accrocheur) dans une version dégraissée, afin de départager si c’est le copy ou la mise en page qui est le plus déterminant.

  • Comment by jmh — 9 November 2012

    @ Hugues : Tu as raison, il serait plus scientifique d’isoler chaque variable. Dans le cas présent, il s’agit d’une petite initiative spontanée, dictée par l’enthousiasme de cette nouvelle fonctionnalité. En réalité, les sites de mes clients (et des vôtres, certainement, chez eMakina) sont des laboratoires bien plus intéressants que ma vitrine de cordonnier 😉

  • Comment by michdup — 11 November 2012

    Il s’agit effectivement d’un apport important. Je n’avait pas encore testé. Bonne remarque de @hugues, si l’on mets trop de tests, on noye les résultats.

  • Comment by Matteo — 19 November 2012

    Très sympa mais attention : ce “A/B testing” ne réalise à priori l’étude que sur les visiteurs qui arrivent via une recherche Google et directement sur la page où se situe la variante. Autrement dit, il ne prend pas en compte les visiteurs qui arrivent sur cette page via une navigation dans le site, par accès direct, par des sites référents, etc.
    Les résultats sont-ils toujours généralisables ?

  • Comment by jmh — 19 November 2012

    @ Matteo : Non, je ne pense pas… je viens d’effectuer un filtre avec uniquement le trafic “référent”, et il reste une proportion des données.

Votre commentaire

Your email address will not be published. Required fields are marked *

Je suis un humain*

This site uses Akismet to reduce spam. Learn how your comment data is processed.