Les fermes de trolls colportant de la désinformation sur Facebook ont ​​atteint 140 tens of millions d'Américains chaque mois avant l'élection présidentielle de 2020, selon un rapport

Les fermes de trolls étaient à l’origine de certaines des internet pages et du contenu les in addition populaires sur Facebook avant les élections de 2020.

  • Les fermes de trolls constituaient un public massif et colportaient de la désinformation et de la propagande avant l’élection présidentielle de 2020, selon un rapport
  • La conception et les algorithmes de Fb ont ​​aidé à diffuser le contenu de la ferme de trolls, a déclaré le MIT Technology Assessment
  • La plate-forme de médias sociaux a du mal à écraser les campagnes de désinformation depuis l’élection présidentielle de 2016
  • /li>

Les fermes de trolls créant de la propagande et de la désinformation sur Fb ont ​​atteint environ 140 hundreds of thousands d’Américains par mois à l’approche de l’élection présidentielle de 2020, selon un rapport interne de l’entreprise obtenu par MIT Technological innovation Review.

Le rapport est sorti en 2019 dans le cadre d’un hard work de près de deux ans pour comprendre l’activité des fermes de trolls sur la plate-forme et a récemment été remis à MIT Engineering par un ancien employé non impliqué dans ses recherches.

La société de médias sociaux n’a pas réussi à réprimer la désinformation et le contenu de la ferme à la traîne après les élections de 2016, selon le rapport.

L’entreprise “a poursuivi une stratégie à toute épreuve qui impliquait de surveiller et d’annuler l’activité des mauvais acteurs lorsqu’ils s’engageaient dans un discours politique, et d’ajouter des garde-fous qui empêchaient” le pire du pire “, a déclaré MIT Engineering Evaluate.

D’ici 2020, les fermes de trolls, ou les groupes qui travaillent ensemble pour créer et diffuser de fausses informations en ligne, “constituaient toujours un community massif en gérant des réseaux de web pages Fb”, selon le rapport du MIT.

15 000 webpages vues par un community majoritairement américain provenaient du Kosovo et de la Macédoine, qui se sont lancés dans des campagnes de désinformation lors des élections de 2016. Collectivement, les pages de la ferme à trolls ont atteint 140 thousands and thousands d’utilisateurs américains par mois et 360 millions d’utilisateurs mondiaux par semaine à la fin de 2019, alors que les Américains se préparaient à voter lors de l’une des élections présidentielles américaines les as well as agitées de l’histoire.

“Ce n’est pas standard. Ce n’est pas sain”, a écrit Jeff Allen, un ancien info scientist de haut niveau chez Fb qui a rédigé le rapport. “Nous avons permis à des acteurs inauthentiques d’accumuler d’énormes adeptes à des fins largement inconnues.”

Les web pages de la ferme à trolls ont produit du contenu pour la in addition grande site chrétienne américaine du internet site atteignant 75 tens of millions d’utilisateurs américains par mois, la moreover grande page afro-américaine avec 30 tens of millions d’utilisateurs par mois, la deuxième furthermore grande page amérindienne avec 400 000 utilisateurs par mois, et la cinquième additionally grande page féminine du web site avec 60 hundreds of thousands d’utilisateurs par mois.

Une majorité des utilisateurs qui ont consulté ce contenu n’avaient jamais suivi ces webpages.

Joe Osborne, un porte-parole de Fb, a déclaré à MIT Engineering Overview que l’entreprise a « formé des équipes, développé de nouvelles politiques et collaboré avec des pairs de l’industrie pour lutter contre ces réseaux. Nous avons pris des mesures d’exécution agressives contre ce style de groupes et ont partagé les résultats publiquement sur une base trimestrielle.”

Depuis 2016, de mauvais acteurs ont réussi à propager à plusieurs reprises des conspirations électorales américaines et la désinformation sur le COVID-19. Les politiciens et les régulateurs ont critiqué l’incapacité de Facebook et d’autres plateformes à limiter les ingérences étrangères. Les chercheurs et les défenseurs des droits technologiques ont fourni leurs propres ressources pour lutter contre la désinformation en ligne, mais la plupart des entreprises ont choisi d’utiliser leurs algorithmes de désinformation internes.

Fb lui-même a essayé d’offrir as well as de transparence dans ses pratiques de modération de contenu, mais son approche actuelle – utiliser des algorithmes pour signaler un éventuel mauvais contenu et demander à des examinateurs humains d’examiner ce contenu au cas par cas – a été critiquée comme étant davantage un pansement. alternative qu’une solution permanente.