L'A/B testing consiste à comparer deux versions d'un élément pour identifier ce qui convertit le mieux. Sur une landing page, testez dans cet ordre : titre → CTA → hero shot → formulaire → preuve sociale. Il faut au moins 100 conversions par variante pour obtenir un résultat statistiquement fiable.
Optimiser une landing page sans A/B testing, c'est naviguer à l'aveugle. Vos intuitions sont souvent fausses — le seul juge est la donnée. Ce guide vous explique comment mettre en place un A/B test rigoureux, quoi tester en priorité, et comment interpréter les résultats.
Qu'est-ce que l'A/B testing ?
L'A/B testing (ou split testing) compare deux versions d'une page (A et B) en répartissant le trafic de manière aléatoire. La version qui génère le plus de conversions gagne.
| Concept | Définition |
|---|---|
| Variante A (contrôle) | La version actuelle de votre page |
| Variante B (challenger) | La version modifiée avec UN seul changement |
| Signification statistique | Le seuil de confiance (95 % minimum) pour valider un résultat |
| Taille d'échantillon | Le nombre de visiteurs/conversions nécessaires pour conclure |
Testez un seul élément à la fois. Si vous changez le titre ET le CTA ET la couleur du bouton, vous ne saurez jamais quel changement a fait la différence. Un test = une variable.
Quoi tester en priorité
Tous les éléments n'ont pas le même impact sur la conversion. Voici l'ordre de priorité basé sur l'impact moyen observé.
Le classement par impact
| Rang | Élément | Impact moyen | Facilité |
|---|---|---|---|
| 1 | Titre (H1) | +20 à 40 % | Facile |
| 2 | Texte du CTA | +10 à 30 % | Très facile |
| 3 | Hero shot (image/vidéo) | +10 à 25 % | Moyen |
| 4 | Nombre de champs du formulaire | +15 à 25 % | Facile |
| 5 | Proposition de valeur | +10 à 20 % | Moyen |
| 6 | Preuve sociale (témoignages) | +5 à 15 % | Moyen |
| 7 | Couleur du CTA | +2 à 10 % | Très facile |
| 8 | Longueur de page | +5 à 15 % | Difficile |
Si votre page convertit sous 2 %, commencez par le titre. C'est l'élément le plus impactant et le plus facile à tester. Si votre page convertit déjà à 3-5 %, testez le CTA et le formulaire pour les gains marginaux.
Exemples de tests par élément
Titre :
- A : "Créez votre site web professionnel"
- B : "Votre site web en ligne en 14 jours — garanti"
CTA :
- A : "S'inscrire"
- B : "Démarrer mon essai gratuit"
Hero shot :
- A : Screenshot du produit
- B : Vidéo de démo de 60 secondes
Formulaire :
- A : 4 champs (nom, email, entreprise, téléphone)
- B : 2 champs (prénom, email)
La méthode en 5 étapes
Étape 1 : Formuler une hypothèse
Avant de tester, formulez une hypothèse claire :
"Si je change [élément X] de [version A] à [version B], alors le [KPI] va [augmenter/diminuer] parce que [raison]."
Exemple : "Si je remplace le titre vague par un titre avec un chiffre concret, le taux de conversion va augmenter parce que les chiffres renforcent la crédibilité."
Étape 2 : Calculer la taille d'échantillon
Ne lancez pas un test sur 50 visiteurs. Vous avez besoin de signification statistique pour conclure.
| Taux de conversion actuel | Amélioration visée | Visiteurs nécessaires par variante |
|---|---|---|
| 2 % | +50 % (→ 3 %) | ~3 600 |
| 5 % | +20 % (→ 6 %) | ~3 200 |
| 5 % | +50 % (→ 7,5 %) | ~1 000 |
| 10 % | +20 % (→ 12 %) | ~1 500 |
En pratique, visez au minimum 100 conversions par variante et un seuil de confiance de 95 %. Si votre page convertit à 5 % et reçoit 200 visiteurs/jour, il faudra environ 20 jours pour un test concluant.
Étape 3 : Créer la variante
Utilisez l'outil de votre choix pour créer la variante B :
| Outil | A/B testing natif | Type |
|---|---|---|
| Unbounce | Oui | Page builder |
| Instapage | Oui | Page builder |
| Divi (WordPress) | Oui (Divi Leads) | Page builder |
| Crazy Egg | Oui | Analytics + A/B |
| Google Optimize | Gratuit (sunsetting) | Overlay |
| VWO | Oui | Plateforme dédiée |
| Strikingly | Oui (basique) | Page builder |
Étape 4 : Lancer et attendre
Répartissez le trafic 50/50 entre les deux variantes. Ne touchez à rien pendant le test. Ne regardez pas les résultats toutes les heures — attendez que la taille d'échantillon soit atteinte.
Étape 5 : Analyser et itérer
Si la variante B gagne avec 95 %+ de confiance → implémentez-la comme nouveau contrôle et lancez un nouveau test.
Si pas de différence significative → l'élément testé n'est pas le levier. Passez au suivant dans la liste de priorité.
L'A/B testing n'est pas un one-shot. Les meilleures pages sont le résultat de dizaines de tests successifs. Chaque test vous apprend quelque chose sur votre audience, même quand il n'y a pas de gagnant clair.
Les erreurs qui faussent vos tests
1. Arrêter le test trop tôt
Vous voyez +30 % après 2 jours et vous concluez. Erreur. Les premiers résultats sont volatils. Attendez la taille d'échantillon calculée et le seuil de confiance de 95 %.
2. Tester trop d'éléments à la fois
Changer le titre, le CTA et l'image en même temps rend les résultats ininterprétables. Un test = une variable.
3. Tester des micro-changements en premier
Changer la nuance de bleu du bouton quand votre titre est mauvais, c'est optimiser le pont du Titanic. Commencez par les éléments à fort impact.
4. Ignorer la saisonnalité
Le trafic du lundi n'est pas celui du dimanche. Lancez vos tests sur au moins 2 semaines complètes pour lisser les variations journalières.
5. Ne pas documenter
Chaque test est un apprentissage. Notez l'hypothèse, le résultat et l'insight. Après 20 tests, vous aurez une connaissance profonde de ce qui fonctionne pour votre audience.
Combiner A/B testing et analytics comportemental
L'A/B testing vous dit quoi fonctionne mieux. Les outils de heatmap vous disent pourquoi.
| Outil | Ce qu'il apporte | Prix |
|---|---|---|
| Hotjar | Heatmaps, session replays, sondages | Gratuit à 80€/mois |
| Crazy Egg | Heatmaps + A/B testing intégré | 29$/mois |
| Lucky Orange | Heatmaps + analytics de formulaires | 32$/mois |
| Microsoft Clarity | Heatmaps, session replays | Gratuit |
Le workflow optimal : observer (heatmap) → hypothèse → tester (A/B test) → mesurer → itérer. Consultez nos guides sur les alternatives à Hotjar et les meilleurs outils de heatmap.
FAQ
Combien de temps doit durer un A/B test ?
Minimum 2 semaines, idéalement jusqu'à atteindre 100 conversions par variante avec un seuil de confiance de 95 %. Avec 200 visiteurs/jour et un taux de conversion de 5 %, comptez environ 20 jours. Ne concluez jamais avant d'avoir atteint la signification statistique.
Faut-il un outil payant pour faire de l'A/B testing ?
Non. Google Optimize (gratuit) permet de faire des tests basiques. Strikingly propose l'A/B testing dans ses plans payants. Pour des tests plus avancés, Unbounce (74$/mois) ou Crazy Egg (29$/mois) sont les meilleurs rapports qualité-prix.
Quel est le premier test à lancer sur une landing page ?
Le titre (H1). C'est l'élément qui a le plus d'impact sur la conversion (+20 à 40 % de variation possible). Testez un titre orienté problème vs un titre orienté bénéfice, ou un titre avec chiffre vs sans chiffre. Consultez notre guide sur la proposition de valeur.
A/B testing vs multivariate testing : quelle différence ?
L'A/B testing compare 2 versions avec une seule variable modifiée. Le multivariate testing compare plusieurs variables simultanément (titre × CTA × image = 8 combinaisons). Le multivariate nécessite beaucoup plus de trafic. Commencez toujours par l'A/B testing.
Mon trafic est faible, comment tester quand même ?
Si vous avez moins de 1 000 visiteurs/mois, les tests A/B classiques prendront trop de temps. Alternative : faites des tests séquentiels (version A pendant 2 semaines, version B pendant 2 semaines) et comparez les KPIs. Moins rigoureux, mais mieux que rien.
Quel taux de conversion viser ?
Le benchmark moyen toutes industries est de 2,35 %. Les 10 % de meilleures pages dépassent 11 %. Visez d'abord 3-5 %, puis optimisez vers 5-8 % avec des tests itératifs. Consultez notre guide complet sur le taux de conversion.