Des réseaux sociaux aux spams, en passant par les élections américaines et les fausses nouvelles sur le Covid, les bots pullulent sur Internet. Une nouvelle étude innovante propose une méthode unique pour les démasquer.
"Qui est un bot et qui ne l'est pas ?" C'est le titre accrocheur de la conférence internationale Frontiers in Physics, qui présente les résultats d'une recherche sur les avalanches de messages automatisés en ligne. Comment différencier ces bots des interactions authentiques des utilisateurs humains ?
Dirigée par Emilio Ferrara et son équipe de la division informatique de l'Institut des sciences de l'information de l'Université de Californie du Sud (USC), cette étude s'appuie sur une prémisse originale : analyser ce qui est spécifique au comportement humain, plutôt que les patterns typiques de l'IA. Les résultats pourraient poser les bases d'un nouvel algorithme de détection des bots.
Imaginez : face à une réponse sur Twitter, comment savoir si elle est humaine ? L'étude confirme scientifiquement notre intuition : les humains réagissent différemment des robots. Voici les points clés :
1. Chez l'humain, l'interaction sociale intrinsèque augmente au fil de la session sur les réseaux sociaux. Sur Twitter, retweets et réponses deviennent plus variés et fragmentés, non copiés-collés mécaniquement.
2. Le volume de contenu diminue pour les sessions prolongées. La longueur moyenne des retweets et réponses raccourcit progressivement.
Ces observations valident le bon sens : "Au fil d'une session, les humains sont influencés par divers messages et stimuli externes", explique Emilio Ferrara, chercheur principal à la division MINDS (Machine Intelligence and Data Science) de l'USC. Les bots, eux, maintiennent un comportement invariant, indifférents aux perturbations. Attention toutefois : "Les bots évoluent rapidement grâce aux avancées de l'IA, imitant de mieux en mieux les humains en ligne", met en garde Ferrara.
[]