#WAM : identifier et éliminer les robots de spam

Publié: 2021-08-02

Un pic surprise dans les données ? Comme c'est excitant . Oh, attendez…

Lions et tigres et robots de spam, oh mon dieu ! Les spambots sont le fléau de l'existence des spécialistes du marketing numérique, jetant de faux positifs et négatifs partout dans vos données parfaitement propres.

Ce sont les puces de l'analyse Web, surgissant de nulle part, prenant une bouchée rapide, puis disparaissant dans la sécurité du tapis. Mais quelles sont ces créatures mystérieuses ?

Qu'est-ce qu'un spambot ?

Tel que défini par Searchexchange , un spambot est « un programme conçu pour collecter ou récolter des adresses e-mail sur Internet afin de créer des listes de diffusion pour l'envoi d'e-mails non sollicités, également connus sous le nom de spam . Un spambot peut collecter des adresses e-mail à partir de sites Web, de groupes de discussion, de publications de groupes d'intérêt spécial (SIG) et de conversations de salon de discussion.

Donc en gros, ce sont des parasites.

Et bien que ces spambots puissent rebondir sur la sécurité de votre site de niveau ministère de la Défense, en protégeant vos données sensibles, ils vont toujours bousiller vos données d'analyse Web. Voyons donc comment trouver ces bots embêtants et les éliminer.

1. Identifiez la pointe

Étalez votre plage de dates dans l'analyse et voyez si quelque chose saute aux yeux. Lorsque vous remarquez un pic de trafic aléatoire et brutal, retenez votre enthousiasme, car il s'agit probablement d'une anomalie.

Je vois un bug. Est-ce que tu? Zoomons sur le laps de temps pour voir de plus près.

Oh oui, nous avons un suspect très suspect le 27 novembre. Isolons ce jour dans notre plage de dates et voyons à quoi il ressemble.

Des centaines de séances entre 18h et 19h Intéressant…

2. Reconnaître le comportement

Les spambots sont généralement déployés en masse plutôt que progressivement. C'est leur seul défaut fatal. Entre 18 et 19 heures, le 27 novembre, c'est une arme fumante. Cependant, ce n'est pas une preuve suffisante pour condamner. Nous devons comprendre un peu plus le comportement des spambots afin d'établir le motif.

Généralement, les robots spammeurs présentent les caractéristiques suivantes :

  • Originaire d'un lieu géographique.
  • Venir de la même adresse IP.
  • Créez plusieurs sessions à la fois.
  • Taux de rebond élevé.
  • Peu de temps sur place.
  • La source de trafic est généralement Direct ou Referral.

En gardant ces caractéristiques à l'esprit, examinons les métriques de haut niveau pendant la période suspecte.

Étant donné que les robots spammeurs ne sondent généralement qu'une page à la fois avec un cookie unique, chaque instance comptera comme une session, un rebond et zéro temps sur le site. La seule raison pour laquelle les métriques n'affichent pas une durée de session moyenne de 0 h 00, un taux de rebond de 100 % et 100 % de nouvelles sessions dans ce cas est probablement parce qu'il y avait quelques visiteurs réels mélangés dans l'ensemble de données. Néanmoins, c'est une preuve assez solide.

3. Isoler l'emplacement

Les preuves s'accumulent ; continuons à creuser. Ensuite, nous examinerons l'emplacement du trafic et verrons si des anomalies surviennent. Allez dans Audience → Géo → Localisation.

Notez les métriques d'engagement inhabituelles provenant d'emplacements aux États-Unis. Fouillez dans le dossier États-Unis pour voir si quelque chose d'autre se démarque.

Il semble peu probable que 349 personnes uniques aient envie du produit de notre client entre 19 h et 20 h le week-end de Thanksgiving. Allons plus loin en identifiant la ville.

Ashburn, espèce d'insecte sournois.

4. Identifiez la source

Nous avons maintenant établi le lieu du crime : Ashburn, Virginie. Maintenant, nous devons savoir comment ils sont arrivés sur le site. Si notre théorie est vraie, tout le trafic devrait provenir d'une source spécifique : soit Direct, soit Parrainage. Allez dans Acquisition → Tout le trafic → Source/Support.

Il y a notre trafic d'Ashburn, qui arrive en direct. Ce boîtier est maintenant assez étanche. Juste pour clouer le dernier clou dans le cercueil, jetez un œil à la plateforme technologique que notre spammeur utilisait pour déployer ses bots. Accédez à Public → Technologie → Réseau.

C'est un slam dunk. Nous avons des spambots. Notre travail de détective a découvert 349 sessions de spambot créées à partir d'une plate-forme Hubspot à Ashburn, en Virginie, le 27 novembre entre 19 h et 20 h. Fermé.

Nous nous retrouvons maintenant avec la question de savoir comment omettre ces mauvaises données de nos rapports.

Tuer les spambots

Malheureusement, dans notre cas, le mal est déjà fait. Nous ne pouvons pas écraser ou supprimer les données qui ont été collectées dans Google Analytics. Ce que nous pouvons faire, c'est configurer un segment avancé pour omettre les données de nos rapports. Nous ne « tuerons » pas les spambots dans ce cas, mais plutôt les cacherons à nos rapports.

Nous voulons décider laquelle des caractéristiques décrites ci-dessus est la plus unique de notre trafic propre. Lorsque nous omettons du trafic, nous voulons nous assurer que nous omettons uniquement le trafic causé par les spambots afin de minimiser les dommages collatéraux.

Dans ce cas, je ne veux pas éliminer le fournisseur de services Hubspot, car il s'agit d'une plate-forme populaire qui génère probablement beaucoup de trafic non-spam. Étalons la période à six mois pour voir combien de trafic provient d'Ashburn, en Virginie. Peut-être pouvons-nous simplement éliminer le trafic de cette ville.

Mis à part les spambots, il semble très rare que nous obtenions du trafic d'Ashburn. Je vais utiliser Ashburn comme facteur commun à éliminer. Allez dans "Ajouter un segment" en haut de l'écran et cliquez sur "Nouveau segment". Nommez votre segment, puis cliquez sur « Conditions ».

Cliquez sur le menu déroulant du filtre pour « Exclure », puis sélectionnez « Ville » et tapez « Ashburn ». Sauver.

Et maintenant, votre rapport omettra le trafic de spam. Jetez un œil à notre période de temps pour confirmer que l'anomalie a été supprimée.

Spambots, partis.

Si vous souhaitez éviter que le problème ne se reproduise à l'avenir, vous pouvez explorer la configuration de filtres dans votre panneau d'administration pour exclure complètement le trafic de toute source particulière que vous avez déterminée comme étant du spam. Vous avez la possibilité de filtrer le trafic à partir d'une adresse IP spécifique ou d'une source de référence. L'utilisation de filtres empêche les spambots de s'enregistrer dans vos données - il vous suffit de savoir exactement d'où ils viennent en suivant les étapes ci-dessus.

Par exemple, si je savais que tous mes spambots provenaient du domaine " www.spamcentral.com ", j'irais dans le panneau d'administration → Filtres → Créer un nouveau filtre. Je choisirais ensuite « exclure » ​​et « le trafic de ce domaine ISP » et saisirais « www.spamcentral.com ». Cela empêchera GA d'enregistrer le trafic provenant de ce domaine.

Moz fait un excellent travail en expliquant comment protéger vos données contre les parasites du spam avant qu'ils n'entrent dans la porte.

Bots morts

Un bon spambot est un spambot omis ou filtré. Ils font des ravages dans vos données et envoient toutes sortes de faux indicateurs. Identifiez toute anomalie (bonne ou mauvaise) dans vos métriques et suivez les étapes ci-dessus pour rechercher la source du coupable afin de l'éliminer de vos données.

Puissiez-vous avoir des données propres, et nous nous reverrons la semaine prochaine pour une autre édition de Web Analytics Monday.