La saison électorale apporte désormais une menace attendue: l’ingérence étrangère by using des campagnes de désinformation en ligne.



Pour lutter contre cette interférence, une équipe de chercheurs a développé un algorithme d’apprentissage automatique qui détecte et signale les trolls Net lorsqu’ils apparaissent. La strategy, disent les programmeurs, pourrait aider les entreprises de médias sociaux à mettre rapidement un terme aux efforts coordonnés pour se mêler des élections américaines.

Un nouvel algorithme pourrait attraper les trolls des réseaux sociaux alors qu'ils tentent d'influencer les élections américaines. Les chercheurs l'offrent gratuitement.

L’outil, décrit dans une étude publiée mercredi dans la revue Science Developments, fonctionne en apprenant à reconnaître des modèles connus et communs associés à l’activité des trolls et aux campagnes de désinformation. Les comptes de trolls russes, par exemple, ont publié de nombreux liens vers des web-sites World wide web d’extrême droite Les trolls vénézuéliens, quant à eux, ont souvent publié de fake sites Website.



Sur la foundation de sa connaissance de ce style de modèle, l’algorithme identifie ensuite d’autres comptes et publications présentant une activité suspecte similaire.

Les chercheurs ont déclaré que l’outil fonctionne sur une variété de plates-formes de médias sociaux – lors de assessments, il a identifié des trolls sur Twitter et Reddit en utilisant les mêmes methods.

Le PDG de Twitter, Jack Dorsey

Anushree Fadnav

« Une valeur majeure des résultats est la capacité de les transférer au fil du temps et des plates-formes » professeur adjoint en informatique au New Jersey Institute of Technologies et co-auteur de l’étude. « Cela permet aux plates-formes de répondre et de suivre en temps réel », a-t-il ajouté.

Un approach d’attaque coordonné

Buntain a déclaré que de nombreuses entreprises de médias sociaux utilisent probablement déjà l’apprentissage automatique pour identifier et supprimer les trolls de leurs plates-formes, mais le modèle de son équipe offre un moyen aux entreprises de coordonner leurs efforts. Il permet également aux entreprises de trouver rapidement de nouvelles campagnes et de prédire certains éléments des futures campagnes de désinformation, motor vehicle il peut utiliser les données de comptes de trolls connus pour en identifier de nouveaux.

« Être capable de faire des prévisions donne à la plate-forme un peu de temps pour faire de véritables interventions », a déclaré Buntain.

Pour tester leur algorithme, les chercheurs l’ont formé sur des données Twitter accessibles au public: des publications et des liens créés par des utilisateurs liés à des campagnes de désinformation. Les utilisateurs venaient de Russie, de Chine et du Venezuela.

Ensuite, ils ont ajouté des données provenant de comptes Twitter ordinaires ainsi que de comptes plus politiquement actifs pour voir dans quelle mesure leur outil pouvait flairer les trolls. Dans chaque check, le modèle a identifié une majorité de publications et de comptes impliqués dans des campagnes de désinformation, même lorsque ces comptes étaient neufs.

« Nous capturons quelque selected dans le message politique que ces trolls poussent », a déclaré Buntain.

Le modèle était également efficace pour séparer les trolls des utilisateurs Twitter authentiques et politiquement engagés.

Mettre l’outil en pratique

Buntain et les autres chercheurs proposent leur algorithme gratuitement, bien qu’ils aient déclaré aimer travailler en partenariat avec des entreprises pour mieux comprendre comment optimiser l’outil. Au moins une entreprise a exprimé son intérêt pour son travail, a ajouté Buntain.

Idéalement, les plates-formes qui adoptent le nouvel outil pourraient utiliser ses résultats pour supprimer ou supprimer rapidement les utilisateurs qui publient du contenu suspect, avertir les utilisateurs humains lorsqu’ils présentent un comportement de troll et avertir le community des campagnes de désinformation au fur et à mesure.

Cependant, Buntain a également déclaré que les entreprises doivent être prudentes si elles adoptent ce variety d’algorithme, automobile la méthode n’est pas précise à 100%.

« Le problème – et je pense que c’est légitime – est, que se passe-t-il lorsque vous vous trompez ? » il a dit.

Il a également noté que les entreprises devraient être vigilantes pour garder une longueur d’avance sur les coordinateurs de la désinformation qui pourraient essayer de contrecarrer l’outil. Les campagnes russes, par exemple, sont devenues de in addition en additionally sophistiquées depuis début 2015.

Le recyclage de l’algorithme toutes les quelques semaines peut l’aider à rester à jour, a ajouté Buntain, mais lorsque des événements majeurs ou des acteurs politiques commencent à suivre une tendance sur une plate-forme, cela peut prendre quelques jours pour que l’outil se rattrape. Compte tenu de ce décalage, des observateurs de trolls humains seraient également nécessaires.