Magazine Ebusiness

Twitter: identifier les infiltrations frauduleuses pour mieux les éliminer

Publié le 23 juin 2014 par Pnordey @latelier

Le réseau social Twitter fait l’objet d’utilisation frauduleuse par des robots qui s’infiltrent parmi les utilisateurs réels. Comprendre leur stratégie permet de mieux identifier ces "social bots".

Avec 200 millions d’utilisateurs actifs qui postent quotidiennement environ 500 millions de tweets, Twitter constitue une manne d’informations pour les entreprises exploitant ces données et développant des applications d’analyse des tweets en temps réel. Même si Twitter a la capacité de prédire certains comportements délictuels et criminels, la plateforme de micro-blogging peut aussi être utilisée pour influencer ou malmener la confiance des utilisateurs parfois naïfs. En effet, des faux comptes peuvent être créés, appelés les "social bots" ou robots sociaux lesquels parviennent à imiter le comportement d’un utilisateur réel et infiltrer les réseaux. Malgré la vérification régulière des faux comptes et leur suppression, en 2013, l’équipe de surveillance de Twitter a dénombré 20 millions de faux comptes sur son réseau. Une équipe de chercheurs de l’Université fédérale du Minas Gerais au Brésil et de l’Université d’Ingénierie et de Sciences en Inde s’est intéressée à la manière dont ces robots s’infiltrent sur Twitter. Ils ont donc créé 120 social bots pour comprendre leur stratégie et observer dans quelle mesure ces robots s’infiltrent parmi les utilisateurs réels.

Etudier la stratégie d’infiltration

Ces 120 faux comptes ont été créés avec minutie puisqu’ils se sont attachés à leur donner nom, prénom, photo de profil et biographie. L’étude a été menée sur 30 jours et pendant cette durée, seuls 38 de ces 120 comptes - soit à peine un tiers- ont été identifiés par Twitter comme social bot. Pour analyser la capacité d’infiltration, les chercheurs ont pris en compte le nombre de "followers" ou suiveurs, le score de réputation Klout et les interactions avec des utilisateurs réels obtenus après le mois d’étude. Il s’avère que les caractéristiques telles que le sexe du faux utilisateur et le fait de re-tweeter des messages écrits par des robots ou des personnes réelles n’a pas d’impact sur la capacité d’infiltration des 120 social bots. En revanche, lorsqu’un compte est très actif ( nombre de tweets envoyés et forte interaction en l’espace d’une heure), ou bien cible un groupe spécifique d’utilisateurs s’exprimant sur un sujet précis, il s’infiltre plus facilement dans le réseau et gagne rapidement en popularité.

Identifier les comportements frauduleux

L’initiative des chercheurs de créer leurs propres social bots pour étudier leur activité n’avait encore jamais été menée auparavant. S’intéresser au point de vue du spammeur (personne qui s’infiltre) permet donc de mieux anticiper les problèmes d’influence. En effet, lors d’élections présidentielles menées au Mexique, les "trending topics" c’est-à-dire les sujets les plus cités sur le réseau avec un hashtag ont été modifiés par l’équipe politique d’un candidat pour optimiser sa popularité. Les chercheurs ont prévu de publier leurs résultats auprès de la communauté scientifique pour permettre à d’autres chercheurs d’explorer d’autres aspects de l’infiltration des social bots. Des études futures s’intéressant à l’influence des robots sur l’achat d’un produit pourraient faire avancer la détection de ces comportements malhonnêtes. D’autres projets sur la sémantique et les données linguistiques des tweets ont aussi été menés.


Retour à La Une de Logo Paperblog

A propos de l’auteur


Pnordey 18702 partages Voir son profil
Voir son blog

l'auteur n'a pas encore renseigné son compte

Dossier Paperblog