Comment analyser les résultats des tests A/B avec l'analyse des tests A/B
Publié: 2022-12-15La dernière chose que tout le monde souhaite, c'est un faux positif, quel que soit le test ! Avec l' optimisation du taux de conversion (CRO) , un faux positif peut conduire à une impasse.
Lorsque vous effectuez un test A/B , vous voulez savoir si votre page de test (B) a vraiment surpassé votre page de contrôle (A) avant de passer du temps à peaufiner des formulaires, des pages ou d'autres aspects de votre site.
Une technique d'analyse de test A/B vous aidera à déterminer si votre test était statistiquement significatif et si vous disposez d'un ensemble de données gagnant entre vos mains.
Comment savoir si votre test A/B était statistiquement significatif ?
La signification statistique signifie que vous pouvez répéter le test et recevoir systématiquement les mêmes résultats ou des résultats similaires.
Par exemple, supposons que vous ayez modifié l'emplacement d'un bouton d' appel à l'action (CTA). Le bouton se trouvait auparavant sous le contenu de votre page de destination, mais vous avez émis l'hypothèse que vous recevriez plus de prospects si vous placiez le bouton au premier plan. Donc, vous avez peaufiné la page et placé le bouton au-dessus de votre titre principal.
Ensuite, vous avez testé l'ancienne page de destination — la page de contrôle — sur 1 000 visiteurs. À partir de là, vous avez testé la page modifiée sur 1000 autres visiteurs. Après avoir mesuré vos résultats avec un calculateur de test A/B, il a montré une augmentation de 25 % des clics sur votre bouton CTA après l'avoir déplacé vers le haut de la page.
Si vous répétez le test plus d'une fois et continuez à recevoir une augmentation d'environ 25 % du nombre de clics, vous pouvez raisonnablement supposer que vos résultats sont statistiquement significatifs. Vous pouvez également supposer que le changement d'emplacement du bouton CTA a été la cause du changement.
Comment analysez-vous votre test A/B ?
Bien que les calculatrices A/B ne soient pas la solution ultime de l'analyse des tests A/B, elles vous aident à donner un sens aux données que vous collectez.
Disons que vous possédez une petite entreprise. Le nombre moyen de visiteurs de votre site varie entre 100 et 500 utilisateurs par semaine. Vous avez effectué un test A/B similaire sur le bouton CTA de votre page de destination, mais sur un échantillon de 100 personnes au lieu de 1 000.
Vos résultats indiquent que 50 personnes sur 100 ont cliqué sur votre bouton CTA pour la page d'origine. Sur la page de test, 58 personnes ont cliqué sur le bouton. Bien que cette augmentation puisse sembler significative pour la taille de l'échantillon, selon le calculateur A/B, il ne s'agit que d'un changement de 16 %.
Que devez-vous faire avant de lancer un test A/B ?
Avant de commencer avec notre exemple de scénario, voici un aperçu de ce que vous devez faire avant de collecter des données.
1. Connaissez vos objectifs
Quels sont vos indicateurs clés de performance (KPI) ? En d'autres termes, quelles conversations génèrent les résultats les plus significatifs pour votre entreprise ? Ces indicateurs peuvent aller du volume des ventes à la fidélisation des clients. En vous concentrant sur les changements axés sur vos KPI, vous obtiendrez les meilleurs résultats.
2. Sachez où vous êtes — et où vous voulez aller
Une fois que vous savez ce que vous voulez mesurer, découvrez où vous en êtes actuellement. Vous avez peut-être déjà une idée générale si vous avez mesuré les clics publicitaires, le nombre d'e-mails ouverts ou le nombre de prospects remplissant votre formulaire de contact par mois.
Jetez un œil à votre CRM et à Google Analytics pour mesurer les données telles qu'elles sont. Les données actuelles devraient vous donner une idée des améliorations nécessaires et réalistes.
Comment savoir si votre test est statistiquement significatif (sans utiliser de calculateur A/B)
Passons maintenant à la partie amusante - l'analyse des tests A / B. Une fois que vous avez suivi les étapes ci-dessus, en plus d'exécuter vos essais et de collecter vos données, vous pouvez déterminer si vos résultats sont suffisamment significatifs pour apporter des changements.
La bonne nouvelle est que vous pouvez toujours utiliser une calculatrice A/B comme point de départ. Sur les 100 visiteurs du site Web de la petite entreprise dont nous avons parlé plus tôt, il y a eu une augmentation de 16% des clics en raison du déplacement du placement du bouton CTA - soi-disant. Maintenant, comment savons-nous si c'est vrai ?

1. Relancez le test
Chaque fois que vous exécutez un test A/B, si le changement n'est pas significatif, vous devrez réexécuter le test, par exemple, si les résultats sont inférieurs à une différence de 36 %.
En général, il est préférable de relancer les tests A/B afin d'avoir suffisamment de données pour conclure que le résultat est le résultat direct de la modification que vous avez apportée.
2. Analysez à nouveau les données
Disons qu'après cette rediffusion, le résultat est que 60 personnes sur 100 ont cliqué sur le bouton CTA de la page de test, et 52 ont cliqué sur la page d'origine. C'est une augmentation de 15,38%, selon la calculatrice.
3. Exécutez votre test une fois de plus (et analysez les résultats)
Ce résultat est similaire au changement de 15 à 16 % la troisième fois. Cependant, avant de vous lancer dans la mise en œuvre des modifications, testez vos résultats une fois de plus.
Lorsque vous travaillez avec un échantillon plus petit, il est difficile de savoir si le changement constant est une coïncidence ou non. En règle générale, plus la taille de l'échantillon est grande, plus vous avez de puissance statistique.
4. Exécutez un autre test A/B — testez votre page de contrôle par rapport à elle-même
Techniquement, une évaluation comme celle-ci serait considérée comme un test A/A. Testez votre page de contrôle sur un ensemble de 100 visiteurs et testez la même page sur un ensemble différent de 100 visiteurs. Vous pouvez le faire avant ou après avoir testé une modification.
La variance naturelle des clics sur votre CTA sans aucune modification mise en œuvre ne doit pas dépasser une différence de 2 %. Cette plage tient compte de la fluctuation naturelle des clics reçus par votre page. Tout changement dépassant cette plage peut raisonnablement être considéré comme significatif.
Maintenant que vous avez suffisamment de données, il est temps de voir s'il coche trois cases. Déterminez si les données sont :
- Suffisant : Oui, nous avons effectué le test trois fois.
- Cohérent : Oui, nous avons reçu un résultat similaire à trois reprises.
- Différencié : Oui, nous avons testé notre page de contrôle contre elle-même et avons remarqué que les changements naturels se situaient entre -2 et 2 %, ce qui signifie que notre augmentation constante de 15 % des clics pour notre page de test était significative.
Sur la base de ces résultats, nous pouvons déterminer que les données sont statistiquement significatives. Nous pouvons également raisonnablement supposer que le changement d'emplacement du bouton CTA a été la cause de l'augmentation du nombre de clics.
WebFX est une fiducie d'entreprises partenaires.
Écoutez HydroWorx, qui a constaté une augmentation de 236 % des sessions organiques avec les services WebFX.


Associez-vous à WebFX pour l'analyse des tests A/B
Comme vous pouvez le voir, l'analyse des tests A/B peut être une tâche ardue, surtout si vous n'êtes pas sûr des changements qui produiront les meilleurs résultats. Notre équipe de plus de 500 experts en la matière chez Metadosi utilise des stratégies de référencement basées sur les données pour créer des pages de destination percutantes avec nos services de test A/B. Nous avons généré plus de 3 milliards de dollars de revenus pour nos clients et nous sommes prêts à faire passer votre page de destination au niveau supérieur.
Contactez-nous en ligne ou appelez-nous au 888-601-5359 pour parler avec un stratège dès aujourd'hui !
