Google Analytics s’est considérablement enrichi ces derniers mois au point d’offrir bien plus qu’un baromètre de votre trafic.
Une nouveauté qui fera le bonheur des ergonomes : la fonction “Tests” qui s’est rajoutée au menu “Contenu”, parmi les options disponibles dans la colonne de gauche.
Auparavant, Google proposait le test de variantes d’interfaces à travers un outil dédié : Google Website Optimizer. Mais, soyons honnêtes, pas un client dans mon entourage n’en faisait un usage probant.
Désormais, Google Analytics intègre la possibilité de tester des variantes d’interfaces. Démarrer un test est un jeu d’enfants. 2 minutes montre en main.
Voici les étapes à suivre :
Un exemple…
Ci-dessous, sur la page d’accueil de mon site redaction.be, je teste actuellement une légère variante. Je désire mesurer l’effet d’un lien graissé et d’un changement de libellé, afin de vérifier quelle version donne le plus envie d’explorer les archives de mes articles.
Les données restent actuellement insuffisantes (Google Analytics n’a pas encore désigné le gagnant). Mais tout de même une différence de +20% de trafic généré par la version graissée.
Notez que dans le cas présent, je travaille non pas avec la totalité du trafic, mais uniquement le segment des “nouveaux visiteurs”. En effet, mon objectif est ici de valoriser mes anciennes productions éditoriales auprès de lecteurs en phase de découverte.
Votre site web, transformé en laboratoire
Autant vous dire que les possibilités de variables à tester sont innombrables. Par exemple :
Certes, cette fonctionnalité ne remplace pas le véritable test utilisateur, qui permet une analyse beaucoup plus qualitative, la verbalisation du ressenti et l’observation d’une expérience qui ne se résume pas à des taux de clic. Il n’en reste pas moins que le test de variantes d’interfaces est un petit bijou désormais à la portée de n’importe quel webmaster.
Vous désirez une consultance Google Analytics sous l’angle de l’optimisation des interfaces ? Contactez-nous !
Commentaires des lecteurs
Comment by Hugues — 9 November 2012
C’est dommage que tu modifies deux variables à la fois dans (mise en page et copy). J’aurais été curieux de voir les résultats du copy “Tous nos articles depuis 2003” (qui a première vu semble très accrocheur) dans une version dégraissée, afin de départager si c’est le copy ou la mise en page qui est le plus déterminant.
Comment by jmh — 9 November 2012
@ Hugues : Tu as raison, il serait plus scientifique d’isoler chaque variable. Dans le cas présent, il s’agit d’une petite initiative spontanée, dictée par l’enthousiasme de cette nouvelle fonctionnalité. En réalité, les sites de mes clients (et des vôtres, certainement, chez eMakina) sont des laboratoires bien plus intéressants que ma vitrine de cordonnier 😉
Comment by michdup — 11 November 2012
Il s’agit effectivement d’un apport important. Je n’avait pas encore testé. Bonne remarque de @hugues, si l’on mets trop de tests, on noye les résultats.
Comment by Matteo — 19 November 2012
Très sympa mais attention : ce “A/B testing” ne réalise à priori l’étude que sur les visiteurs qui arrivent via une recherche Google et directement sur la page où se situe la variante. Autrement dit, il ne prend pas en compte les visiteurs qui arrivent sur cette page via une navigation dans le site, par accès direct, par des sites référents, etc.
Les résultats sont-ils toujours généralisables ?
Comment by jmh — 19 November 2012
@ Matteo : Non, je ne pense pas… je viens d’effectuer un filtre avec uniquement le trafic “référent”, et il reste une proportion des données.