49% de « vrais » visiteurs sur nos sites ?

Korben a publié sur son blog une info qui m’interpelle : seulement 49% des visiteurs sur nos sites web seraient des humains.

Les 51% du trafic restant se répartirait entre différentes connexions plus ou moins nuisibles : outils de scan pour détecter les failles sur un site, outils de scrapping, spamming, d’espionnage… et parmi celles-ci 20% des connexions serait lié aux robots des moteurs et aux outils de trafic qui scannent le web.

Au delà du risque que cela peut présenter pour nos petites entreprises (ou vies privées) je me pose la question, doit-on remettre en cause nous webmarketers et webmasters toutes les analyses de trafic que l’on peut faire ?

Si vous utilisez comme moi Google Analytics celui-ci envoi les données relatives aux visiteurs de passage sur nos pages web uniquement si Javascript est activé et si les cookies peuvent être paramétrés (c’est écrit ici). Donc à priori peu de risque de voir son trafic gonfler artificiellement sous les requêtes du Googlebot et de ses cousins.