Simuler des pages vues avec des robots : un business lucratif
Un éditeur web a témoigné. Il explique comment il a utilisé des robots pour booster le trafic de ses sites.
Ecrire pour être lu, c’est l’objectif de tout rédacteur.
Sur le web, c’est également une nécessité puisque le montant de la publicité est fixé en fonction du trafic sur le site internet.
Mais certains éditeurs peu scrupuleux ont trouvé une parade. Ils font appel à des services qui utilisent des robots simulant la lecture d’un être humain pour booster leur trafic. Un éditeur, sous couvert d’anonymat a expliqué le principe au magazine Digiday. Pour $0.002 la visite, il faisait un profit estimé entre $0.0025 and $0.004 en revenus publicitaires. Avec un trafic estimé entre 5 et 17.5 millions de visites par jour, l’éditeur générait ainsi entre 12,500$ et 70,000$ par jour.
Bien sûr, les entreprises proposant ce genre de services ne clament pas haut et fort qu’il s’agit de robots et préfèrent parler d’une “quantité inconnue de trafic”.
Cette technique est bien sûr une fraude puisque l’éditeur ment sur les origines de son trafic à ces partenaires publicitaires.
Il n’est pas toujours évident de détecter la visite de robots sur un site. Mais pour les plus simples (et donc les moins chers) il suffit de regarder dans Google Analytics. L’éditeur explique qu’une partie de son trafic est soudain venue d’ordinateurs utilisant de vieilles versions de Internet Explorer, datant de 2003. “Cela n’arrive jamais avec de vrais visiteurs.”