Qu'est-ce qu'un filtrage de bot Google Analytics et comment l'utiliser

Publié: 2021-07-20

Table des matières

  • Trafic de robots : le bon et le mauvais
  • Filtrage des bots Google Analytics : pourquoi est-ce important ?
  • Comment identifier le trafic des bots dans Google Analytics
  • Comment supprimer le trafic des bots des données de Google Analytics
  • En bout de ligne

Imaginez que vous vous connectiez un jour à votre compte Google Analytics et que vous voyiez un pic de trafic sur votre site Web. Cependant, après avoir regardé de plus près, vous comprenez qu'il s'agit principalement de bots, n'apportant aucune conversion, vous faisant simplement vous soucier de la sécurité du site Web. Heureusement, les fonctionnalités de filtrage des bots de Google Analytics sont là pour régler les choses.

Sans aucun doute, GA (Google Analytics) est l'un des outils préférés des spécialistes du marketing pour analyser et comprendre le trafic provenant du site Web de l'entreprise. Et comme les efforts de marketing en ligne ne valent que la qualité des données, chaque spécialiste du marketing doit savoir qu'il est essentiel de maintenir les rapports Google Analytics aussi propres et précis que possible. Et le moyen le plus rapide de filtrer tout le bruit des données et d'obtenir des informations précieuses pour votre entreprise consiste à utiliser les outils de filtrage des bots de Google Analytics.

Trafic de robots : le bon et le mauvais

En termes simples, le trafic de robots est tout trafic en ligne qui ne provient pas d'une personne réelle. Une étude menée par Imperva a révélé qu'en 2020, 37,2 % de tous les utilisateurs en ligne étaient des robots. Il contenait 13,1 % de bons bots et 24,1 % de mauvais bots.

Les bons bots sont chargés d'automatiser les tâches : explorer et indexer les sites Web sur les moteurs de recherche ou alimenter des assistants intelligents comme Siri ou Alexa avec les informations du site Web. Les bons robots les plus courants, selon Imperva, sont :

  • Robots de surveillance (1,2 %) - vérificateurs de l'état du site Web ;
  • Crawlers commerciaux (2,9 %) - crawlers métriques (AHREF, Majestic) ;
  • Les bots des moteurs de recherche (6,6 %) comme Google bot ou Yahoo bot ;
  • Récupérateurs de flux (12,2 %) qui convertissent les sites en contenu mobile.

Tous ces bots, spiders ou crawlers jouent un rôle important dans le bon fonctionnement des sites Web. Si un spécialiste du marketing décidait d'en bloquer un sur le site, cela pourrait affecter négativement le trafic.

Les mauvais bots sont ceux qui sont responsables de choses telles que le grattage de sites Web ou le spam. Certaines personnes lancent des robots pour explorer et récupérer les données des sites Web afin de télécharger le contenu sur leur propre site ou de rechercher des sites pour trouver des vulnérabilités à exploiter. Selon l'enquête, les robots malveillants les plus populaires étaient :

  • Les robots spammeurs (0,3 %) qui publient automatiquement des commentaires et des messages sur les sites Web ;
  • Les grattoirs Web (1,7 %) sont utilisés pour gratter les prix, les éléments de contenu des sites ;
  • Les robots pirates (2,6 %) qui recherchent les vulnérabilités sur les sites ;
  • Les robots imitateurs (24,3 %) qui ressemblent à un véritable trafic humain sont souvent utilisés dans les attaques DDoS.

Filtrage des bots Google Analytics : pourquoi est-ce important ?

Le trafic des robots peut avoir un impact sur les mesures d'analyse telles que les pages vues, le taux de rebond, la durée de la session, l'emplacement des utilisateurs et les conversions. Ces aberrations dans les métriques peuvent créer beaucoup de frustration pour le propriétaire du site et les analystes de données. Il est difficile de mesurer les performances d'un site Web submergé par l'activité des bots. Les tentatives d'amélioration du site, telles que les tests A/B et l'optimisation du taux de conversion, deviennent inefficaces à cause du bruit créé par les bots.

Les données filtrées fourniront une image plus précise de la façon dont les utilisateurs interagissent avec le site. L'obtention de mesures objectives vous permettra de comprendre quelles pages, sources d'acquisition et campagnes offrent le meilleur retour sur investissement pour l'entreprise.

Bien que Google Analytics fournisse le tableau de bord de surveillance des données, il peut être difficile à comprendre pour les spécialistes du marketing et les clients. L'outil d'analyse de données permet aux spécialistes du marketing de gagner du temps et de créer des rapports visuels, de les automatiser à la fréquence préférée, de les partager avec leurs coéquipiers et leurs clients en quelques minutes.

Comment identifier le trafic des bots dans Google Analytics

Les robots s'affichent généralement en tant que trafic direct dans GA. Les analystes de données devront rechercher des modèles dans d'autres dimensions pour pouvoir les filtrer. Le trafic des robots proviendrait principalement de la queue des sites Web, par exemple, trafficmonster.info , morerefferal.net , etc. Voici quelques autres signes indiquant que les robots de la circulation vous ont rendu visite :

Augmentation du trafic sur une journée ou une heure spécifique. Si le site Web reçoit généralement 1 000 visiteurs par jour et sans aucune campagne de marketing ou de vente particulière, le trafic a grimpé à 10 000 - il s'agit très probablement de trafic généré par des bots. Andy Crestodina d'Orbit Media Studios déclare : "Lorsque vous voyez un pic qui ne peut être expliqué autrement, cherchez des preuves qu'il s'agit d'un bot".

Un autre drapeau rouge lors de l'identification du trafic de robots est un pic inhabituel de visites sur une page particulière , généralement la page d'accueil ou la page À propos. Lorsque les bots inondent le site, ils visitent la page la plus visitée pour récupérer toutes les informations que les utilisateurs pourraient rechercher - titres, tableaux de prix, etc.

Des taux de rebond élevés et un faible temps passé sur le site sont les paramètres à rechercher lors de la résolution du trafic inhabituel. Les robots ne sont pas de vraies personnes et ils viennent sur le site Web avec un objectif déjà clair. Cela signifie qu'ils analysent automatiquement le site Web et partent immédiatement. Le taux de rebond du trafic du bot est généralement proche de 100 % et le temps passé sur le site est de près de 00:00.

La source du trafic est un pays différent de celui de l'entreprise. Lorsque des concurrents, des grattoirs ou des pirates informatiques exécutent le bot, ils génèrent les informations de manière aléatoire. Cela ressemble à un pays étranger, où l'entreprise n'opère même pas.

Conversions indésirables telles que de nouveaux comptes créés avec des informations d'identification charabia ou des formulaires de contact remplis de noms aléatoires et de faux numéros de téléphone pour accéder à plus d'informations sur le côté, si la connexion ou les informations de contact sont obligatoires.

Comment supprimer le trafic des bots des données de Google Analytics

GA offre une option pour "exclure tous les hits des bots et spiders connus". Si la source du trafic du bot peut être identifiée, les analystes de données peuvent également fournir une liste spécifique d'adresses IP à ignorer par Google Analytics. Pour activer le filtre natif sur les rapports, accédez à l'onglet "Admin", sélectionnez la vue à laquelle vous souhaitez appliquer le filtre et cliquez sur "Afficher les paramètres". Cochez ensuite la case intitulée "Exclure tous les hits des bots et spiders connus".

Bien que ces mesures empêchent certains bots d'inonder les analyses, elles n'arrêteront pas tout. La plupart des robots malveillants poursuivent un objectif en plus de perturber les données de trafic. Ces mesures ne font rien pour réduire l'activité nuisible des bots en dehors de la préservation des analyses. Voici quelques conseils supplémentaires pour filtrer le trafic des bots via Google Analytics :

  • Créez une nouvelle vue . Avoir plusieurs vues dans GA permettra à un analyste de données de mesurer l'impact des filtres et d'avoir un recours au cas où un filtre aurait accidentellement un impact sur les données. Une fois qu'un filtre est appliqué sur Google Analytics, il prend effet rétrospectivement, ce qui signifie que les données historiques ne seront pas filtrées même avec des filtres configurés sur le compte professionnel. Pour créer une nouvelle vue dans Analytics, accédez à l'onglet "Admin", cliquez sur "Créer une vue", puis configurez "Vue de données brutes", "Vue de test" et "Vue de rapport".
  • La segmentation des données aidera à filtrer le trafic des bots si l'analyste a déterminé un domaine de spam. Contrairement aux filtres, les segments ont un effet sur les données historiques ainsi que sur les données futures. Pour créer un nouveau segment, appuyez sur « Ajouter un segment », puis sur « Nouveau segment » et entrez les domaines que vous souhaitez exclure. Pour exclure plusieurs domaines, ajoutez un tube/barre verticale entre chaque domaine.

En bout de ligne

Avoir des données réelles et précises est essentiel pour votre Google Analytics - et toutes les analyses marketing, d'ailleurs. Il est également essentiel de bien filtrer les données, sans aucune information artificielle, ce qui n'est pas utile. Le responsable marketing doit comprendre que si les rapports GA contiennent des données inutiles, il obtiendra probablement des informations erronées lors du choix des prochaines étapes pour le site Web ou l'entreprise.

Après avoir appris ce qu'est le trafic de bot, l'avoir identifié et filtré, la dernière étape consiste à obtenir une vue claire des données que Google Analytics a collectées. Il est conseillé aux spécialistes du marketing d'utiliser un outil de reporting pour collecter les données et les présenter dans un rapport visuellement attrayant et facile à digérer.