En tant qu’éditeur, le trafic non valide est une menace majeure pour votre capactité de monétiser votre site à travers différents modèles. Régler la source du trafic non valide est essentiel pour maintenir une bonne réputation avec les produits Google Ad, comme AdSense et Adx, et les principaux réseaux d’affiliation, comme Amazon. Les sites Web doivent trouver et corriger des sources de trafic non valides ou ils risqueraient que Google, ou d’autres partenaires, suspende leur capacité à monétiser avec leurs réseaux ou produits.

Le trafic non valide est une menace croissante pour les éditeurs monétisant leur site avec des annonces d’affichage parce que Google ne fournit pas d’avertissement avant de désactiver un compte Google Publisher en raison du trafic non valide. Par ailleurs, c’est justement en raison de la nécessité de Google de protéger son système de détection propriétaire pour le trafic non valide qu’ils ne peuvent pas vous donner des informations spécifiques par rapport à la désactivation de votre compte.

Une énigme frustrante pour tous les sites utilisant AdSense ou Google Adx comme source principale de revenus publicitaires d’affichage sur leur site (note: la majorité des éditeurs). Google peut vous dire qu’ils ont trouvé une source de trafic non valide, mais ne peut pas vous dire ce que c’est ou d’où elle provient.

AdSense désactivé en raison d’un trafic non valide

Ceci est un exemple d’e-mail de l’équipe AdSense qui a désactivé un compte en raison de trafic non valide.

La meilleure façon d’éviter que Google vous pénalise pour le trafic non valide est d’empêcher le trafic non valide. Plus facile à dire qu’à faire.

Aujourd’hui, je vais vous montrer comment prévenir quelques formes de trafic invalide qui sont sous votre contrôle immédiat. Il y a aussi une vidéo ci-dessous.

Comment Google détecte les sources de trafic non valides

Puisque les sites Web qui sont signalés pour le trafic non valide ont AdSense / des tags d’annonce Google sur la page, Google peut voir l’agent utilisateur et aussi lire toutes les données que JavaScript pourrait demander lorsqu’il est intégré dans la page.

Pensez-y de cette façon, au minimum, Google peut détecter tout ce que Google Analytics détecte lorsque leurs balises publicitaires sont sur la page.

Récemment, Google Analytics a partagé qu’il n’est plus responsable de l’enregistrement du trafic robot ou du trafic non valide de GA par défaut. Il y a un paramètre dans Google Analytics admin qui vous permet d’activer ou de désactiver cela, ce que je vais couvrir dans la section suivante. Ce que Google Analytics filtre lorsque cela est activé pourrait être quelque peu représentatif de ce qu’ils détectent en utilisant d’autres produits aussi.

En dehors de ces informations, il n’y a pas grand-chose d’autre qui peut être partagé sur les méthodes de détection de Google. La plupart des autres dans l’industrie sont obligés d’adopter une approche très réactive pour comprendre ce qui a causé des problèmes de circulation invalide et sont chargés d’identifier les modèles qui pourraient être spécifiques à différents types de trafic non valide.

Est-ce que le trafic robot invalide est vraiment du trafic ?

Le trafic non valide n’est pas toujours le trafic robot. Parce qu’il y a plus de types de trafic non valide qu’uniquement le trafic robot.

Google définit le trafic non valide comme :

  • Clics ou impressions générés par les éditeurs en cliquant sur leurs propres annonces en direct
  • Clics ou impressions d’annonces répétés générés par un ou plusieurs utilisateurs
  • Les éditeurs encourageant les clics sur leurs annonces (exemples pouvant inclure : n’importe quel langage encourageant les utilisateurs à cliquer sur des annonces, les implémentations d’annonces qui peuvent causer un volume élevé de clics accidentels, etc.)
  • Outils de clic automatisés ou sources de trafic, robots ou autres logiciels trompeurs.

L’une des façons les plus simples d’aider à prévenir le trafic non valide est de basculer sur le paramètre de « filtrage de robot » dans les paramètres d’administrateur Google Analytics. Ce paramètre « exclura tous les coups des robots et spiders connus. »

Il y a un paramètre dans Google Analytics où vous pouvez faire basculer le filtrage du trafic robot

Cela va seulement filtrer les robots, mais ne les élimine pas; cependant, de voir des rapports avec et sans le filtrage pourrait permettre de savoir d’où provient le trafic robot.

En plus de tout cela : les robots sont plus intelligents que jamais. Maintenant, vous pouvez même louer un bot-net complet pour moins de 20$. Les mauvais acteurs ont apparemment toujours une longueur d’avance.

Quelle est la source du trafic non valide ?

Si vous avez été informé par Google que votre site web est frappé par le trafic non valide, vous êtes une des deux personnes à la recherche de cet article :

  1. Vous ne faites rien de mal du tout, et le trafic invalide est un mystère.
  2. Vous n’êtes pas honnête avec vous-même et le trafic invalide est un sous-produit de quelque chose intentionnel.

Presque tout le monde dira qu’ils sont dans cette première catégorie. Si vous êtes dans la deuxième catégorie, cet article n’est pas pour vous.

En outre, si vous faisiez cela intentionnellement, tout ce que vous auriez à faire est de supprimer le trafic invalide et continuer vos magouilles. C’est pourquoi Google Analytics ne vous indique pas exactement quel trafic n’est pas valide.

Alors, que faire si vous ne faites pas cela intentionnellement, et que vous ne savez pas quel trafic est invalide ? Vous êtes dans le noir et essayez de trouver un fantôme. Bien qu’il existe de nombreuses causes de trafic non valides, je vais partager avec vous les trois que j’ai vu récemment causer un trafic invalide accidentel pour les éditeurs.

3 causes majeures de trafic invalide non intentionnel

1. Acheter des domaines expirés ou rediriger les anciens sites vers un nouveau

L’achat de domaines expirés a le potentiel d’envoyer du trafic non désiré et redirigé. Il s’agit d’une pratique de référencement commune que beaucoup ne relient souvent pas à un trafic indésirable et non valide.

Les avantages de l’utilisation de domaines expirés pour les rediriger vers votre propre site ou pour en construire un nouveau :

  • Le domaine expiré peut avoir une bonne autorité
  • De bons backlinks pointant toujours vers ce domaine
  • C’est un nom de domaine dans un créneau similaire à votre propre site
  • Avoir une adresse .edu / .org qui a des niveaux plus élevés d’autorité

Lorsque les éditeurs font cela, la logique est que les backlinks et les informations de domaine seront transmises sur le nouveau site une fois qu’une redirection est configurée. Ou, si vous utilisez le domaine expiré pour construire un site Web, l’autorité établie aidera à renforcer l’autorité et les classements.

Le problème est lorsque vous achetez ces domaines, vous ne savez pas qui envoie du trafic vers ces domaines et pourquoi. En outre, il est difficile de savoir quels sites Web pourraient interpeller le site expiré régulièrement, simplement parce qu’ils savaient qu’il était expiré.

Les domaines expirés peuvent être une cause de trafic non valide si vous les utilisez pour rediriger vers votre nouveau site Web en fonction du type de trafic qu'obtenait le domaine expiré.

Ce que le transfert du trafic de ces domaines expirés vers vos nouveaux sites peut provoquer :

  • Mener des robots et crawlers sur votre site Web.
  • Les visiteurs qui rebondissent immédiatement (ce que vous ne voulez pas) lorsque l’ancien site charge se rendent compte que ce n’est pas le site qu’ils cherchaient.
  • Avertissements de trafic non valides de Google

Comment les prévenir :

Pour résoudre ce problème, vous devez revenir en arrière et voir quels domaines expirés sont transmis à votre site. En outre, il vaut la peine de regarder d’où vient le trafic pour ces sites.

Pour ce faire, vous devez examiner vos fichiers et dossiers de serveur. S’il existe Google Analytics pour ces URL particulières, vous devriez l’examiner. Vous devez également regarder combien de fois une redirection est interpelée,que ce soit à votre hôte ou si vous avez WordPress mis en place, vous pouvez réellement voir quelles redirections sont touchées. Si vous redirigez certains de ces sites, vous pourriez être en mesure de voir d’où provient certains de leur trafic (le domaine expiré).

Rappelez-vous: Le but était juste d’obtenir l’information des liens transmis à votre nouveau site, pas nécessairement au trafic.

Cela peut être difficile à résoudre, surtout si c’est une stratégie dans laquelle vous avez déjà investi. Beaucoup de gens ne veulent pas admettre que cela arrive, parce que c’est présenté comme une grande stratégie sans inconvénients. Mais c’est l’un des inconvénients que les experts en référencement oublient ou ont tendance à ignorer.

Vous pouvez être en mesure de configurer le domaine de transfert pour filtrer les robots à travers votre CDN ou hôte si vous souhaitez faire des efforts pour garder les backlinks en place tout en protégeant contre le trafic bot. Cloudflare a quelques bonnes options pour cela.

2. Être une cible de piratage facile

Les robots deviennent une partie de plus en plus commune sur la totalité du trafic web. Bien qu’il existe de bons robots, comme le crawler web de Google (Googlebot), il y a aussi de mauvais robots.

Les mauvais robots vont des copieurs qui dupliquent ou volent du contenu, des e-mails, etc. aux bots de clics qui cliquent sur des annonces d’affichage. Il y a même des bots qui tentent de pirater les CMS de sites Web. Le rapport Bad Bot d’Imperva de 2019 a constaté que les mauvais robots représentaient 24,1% de tout le trafic web.

Le Rapport Bad Bot 2019 montre que 24,1% du trafic Web est constitué de mauvais robots, qui comptent comme trafic non valide

La plus grande augmentation du mauvais comportement bot est le piratage d’informations d’identification et la farce d’identification. Imperva affirme avoir atténué une attaque qui a duré 60 heures et inclus 44 millions de tentatives de connexion. Ces types d’attaques DDoS à volume élevé peuvent mettre une pression majeure sur un réseau, ou l’anéantir complètement.

Comment prévenir cela :

Un moyen facile d’empêcher les mauvais robots de pirater votre CMS est de définir votre URL de connexion admin vers quelque chose de différent que la valeur par défaut.

Par exemple :

Au lieu de : www.website.com/myadminportal

Changer le en : www.website.com/myadminportal_12

Si votre site Web est l’URL de connexion d’administrateur par défaut, les mauvais robots toucheront cette page. C’est parce que tous les sites Web d’un certain CMS partagent la même URL de connexion d’administrateur par défaut. Les sites WordPress sont en général www.examplesite.com/wp-admin et les sites Joomla sont généralement www.examplesite.com/administrator.

Admin Slug WordPress que les pirates tentent d’utiliserUne fois que vous modifiez la page de destination par défaut www.mywebsite.com/wp-admin en une URL unique, elle doit automatiquement modifier l’URL d’origine en une page 404. Cela signifie que chaque bot qui frappe l’URL de connexion par défaut à l’avenir atteindra une page d’erreur 404. Alors que les utilisateurs réels qui se connectent à votre CMS auront l’URL unique que vous avez créée.

Enfin, deux façons de protéger davantage votre site Web contre les mauvais robots est de se prémunir contre l’énumération des attaques des utilisateurs. Si vous utilisez WordPress, ce plugin utilisateur énuméré a la note la plus élevée.

L’énumération utilisateur est un type d’attaque où les mauvais robots peuvent sonder votre site Web pour découvrir votre nom de connexion (ou les connexions d’autres utilisateurs). Il s’agit souvent d’un pré-curseur pour les attaques de mot de passe de force brute. Des plugins comme ceux-ci aident à bloquer les attaques et vous permet même d’enregistrer les adresses IP lançant ces attaques pour bloquer d’autres attaques à l’avenir.

Avec ces changements en place, vous devriez être en mesure d’éviter le trafic invalide en empêchant les mauvais robots d’attaquer votre site Web.

3. Partage de contenu et « construction de liens »

Le partage de contenu et la « construction de liens » sont des pratiques courantes adoptées par les expert en référencement en ligne. Certains éditeurs partagent des liens vers leur site dans des sections de commentaires, des annonces en ligne et des forums. Ces tactiques ne sont que des techniques de référencement réglo, non? Pas si vite.

Ce sont des endroits où il est très possible que les crawlers web puissent essayer d’analyser ces pages. Cela met alors votre site dans une position à risque pour avoir des crawlers visant fréquemment vos pages. Si le crawler n’est pas sophistiqué ou que le lien se trouve sur une page qui est souvent touchée par des bots, ce comportement peut se répercuter sur un trafic non valide croissant, qui est acheminé vers votre site.

Ces types de tactiques sont ce que je qualifierais de vraiment contre nature. Ce qui signifie que vous essayez de poster des liens dans les sections de commentaires, alors que vous essayez de rendre votre contenu « disponible » à ces personnes. C’est essentiellement du marketing non rémunéré, et c’est indésirable. Google va s’en rendre compte.

Liens spam de type commentaires

Le plus souvent vous reliez votre site sur des listes en ligne, le plus probable sera-t-il que les crawlers le frapperont.

Comment prévenir cela :

La seule façon d’empêcher le trafic non valide de partager du contenu ou de construire de liens est tout simplement de ne pas le faire dans des endroits qui ne sont pas naturels. Ne spammez pas vos liens dans les sections de commentaires des sites Web, agressivement dans les annonces en ligne ou des forums (sans contexte), ou vers les e-mails des gens avec des liens.

Conclusion sur comment prévenir les avertissements de trafic non valides que Google peut pénaliser

Voici 3 pratiques les plus courantes que la plupart des gens ne connaissent pas qui peuvent générer du trafic invalide vers votre site Web.

  1. Acheter des domaines expirés ou les rediriger vers de nouveaux sites Web
  2. Être une cible de piratage facile
  3. Partage de contenu ou de création de liens

Si tout le reste échoue, parlez à votre hébergeur. Demandez-leur s’il y a eu une activité qui leur a été signalée. Vous les payez pour l’hébergement, alors demandez-leur s’ils peuvent vous aider parce que votre site connait un trafic inhabituel de robots qui sont potentiellement en train d’endommager gravement votre entreprise en ligne.

Avez-vous des questions sur la façon d’empêcher la désactivation du trafic non valide de Google ? Faites-le-moi savoir dans les commentaires. Je peux promettre que je n’aurai pas toutes les réponses, mais peut-être moi-même ou d’autres peuvent partager quelque chose d’utile.