Description : Cet outil fournit une vue d'ensemble complète et détaillée des performances des tests comparatifs (A/B Test ou Split Test) créés dans le système, permettant d'identifier la version la plus efficace.
À quoi ça sert ? (Exemples pratiques)
Utilisez-le pour prendre des décisions basées sur les données et optimiser l'expérience utilisateur sur votre site :
- Identification du gagnant : Découvrez de manière incontestable quelle version d'un élément (ex. un titre, une image, un bouton) obtient les meilleurs résultats en termes de clics ou de temps d'attention.
- Suivi de l'efficacité : Suivez les performances agrégées de tous les tests actifs ou historiques, en surveillant le nombre total d'interactions générées.
- Optimisation de la conversion : Comparez les métriques d'engagement (temps de lecture, clics) pour maximiser l'efficacité des contenus cruciaux pour l'entreprise.
Fonctionnalités principales
1. Gestion et affichage des tests
L'écran principal affiche une liste de tous les tests effectués ou en cours. Chaque ligne fournit un résumé rapide des performances :
- Titre : Le nom attribué au test.
- Éléments : Le nombre de versions (A, B, C, etc.) qui ont été comparées dans ce test.
- Clics totaux : La somme des clics reçus par tous les éléments du test.
- Vues totales : La somme des vues reçues par tous les éléments du test.
Il est possible de supprimer les données relatives à un test spécifique directement depuis la grille, si elles ne sont plus nécessaires pour l'analyse historique.
2. Analyse détaillée du rapport
En sélectionnant un test dans la liste, on accède au rapport détaillé qui compare les performances de chaque élément individuel (version) ayant participé au test.
Métriques de base par élément
Pour chaque version testée, les données brutes d'interaction sont affichées :
| Icône | Métrique | Description |
|---|---|---|
| Œil | Nombre de vues | Combien de fois l'élément a été montré aux utilisateurs. |
| Pointeur | Clics par vue | La moyenne des clics reçus par chaque vue de page. |
| Lecteur | Temps moyen de lecture | Le temps moyen (en secondes) pendant lequel le pointeur de la souris ou l'attention de l'utilisateur s'est concentré sur l'élément. |
Analyse d'Efficacité (Pourcentages)
Cette section compare les performances de chaque élément avec le total du test, mettant en vert (succès) la version qui a obtenu le meilleur résultat pour cette métrique spécifique.
| Métrique | Description | Indicateur de succès |
|---|---|---|
| Clics | Pourcentage de clics par rapport au nombre total de vues. | L'élément avec le pourcentage de clics le plus élevé. |
| Temps de lecture | Pourcentage de focalisation sur l'élément par rapport au temps total. | L'élément qui a retenu l'attention le plus longtemps. |
| Nombre de lectures | Pourcentage de personnes ayant focalisé l'élément. | L'élément qui a attiré l'attention du plus grand nombre d'utilisateurs. |
Web Tracking (Événements Suivis)
Si le test est configuré pour suivre des événements spécifiques (ex. "Défilement jusqu'à 50%", "Mouse over", "Ouverture vidéo"), cette section montre le nombre et le pourcentage de ces événements pour chaque élément.
Cela permet de comprendre si un élément, en plus de générer des clics, stimule également des interactions spécifiques contribuant à l'objectif final.
Intégrations automatiques
Ce module est étroitement intégré avec le Visual Builder du système. Les données sont collectées automatiquement chaque fois qu'un utilisateur visualise ou interagit avec les éléments configurés pour un A/B Test. Aucune configuration manuelle n'est requise pour démarrer la collecte des données ; il suffit de créer le test via l'interface visuelle.







