in

Une plate-forme expérimentale qui met la modération entre les mains de ses utilisateurs montre que les gens évaluent efficacement les messages et partagent leurs évaluations avec les autres

Lorsqu’elles luttent contre la propagation de la désinformation, les plateformes de médias sociaux placent généralement la plupart des utilisateurs sur le siège passager.

“Ce n’est pas parce qu’il s’agit du statu quo que c’est la bonne ou la seule façon de procéder”, déclare Farnaz Jahanbakhsh, étudiant diplômé du Laboratoire d’informatique et d’intelligence artificielle (CSAIL) du MIT.

Elle et ses collaborateurs ont mené une étude dans laquelle ils ont plutôt mis ce pouvoir entre les mains des utilisateurs de médias sociaux.

Ils ont d’abord interrogé les gens pour savoir comment ils évitent ou filtrent la désinformation sur les réseaux sociaux. À l’aide de leurs découvertes, les chercheurs ont développé une plate-forme prototype qui permet aux utilisateurs d’évaluer l’exactitude du contenu.

Grâce à une étude sur le terrain. De furthermore. Les chercheurs ont également constaté que les members utilisaient les filtres de contenu différemment – par exemple, certains bloquaient tout contenu désinformant tandis que d’autres utilisaient des filtres pour rechercher de tels articles or blog posts.

déclare Jahanbakhsh. et peut plaire aux utilisateurs qui se méfient des plateformes, ajoute-t-elle.

“De nombreuses recherches sur la désinformation supposent que les utilisateurs ne peuvent pas décider ce qui est vrai et ce qui ne l’est pas, et nous devons donc les aider. Nous n’avons pas du tout vu cela. Nous avons vu que les gens traitent le contenu avec un examen minutieux et ils essaient aussi de s’entraider. Mais ces attempts ne sont pas actuellement soutenus par les plateformes », dit-elle.

Jahanbakhsh a rédigé l’article avec Amy Zhang. professeur d’informatique au CSAIL. La recherche sera présentée à la conférence ACM sur le travail coopératif assisté par ordinateur et l’informatique sociale.

Combattre la désinformation

La propagation de la désinformation en ligne est un problème répandu. Cependant, les méthodes actuelles utilisées par les plateformes de médias sociaux pour marquer ou supprimer les contenus mal informés présentent des inconvénients. Par exemple, lorsque les plateformes utilisent des algorithmes ou des vérificateurs de faits pour évaluer les publications, cela peut créer des tensions parmi les utilisateurs qui interprètent ces efforts comme une atteinte à la liberté d’expression, entre autres problèmes.

“Parfois. afin qu’ils sachent quand et comment leur en parler”, ajoute Jahanbakhsh.

Les utilisateurs essaient souvent d’évaluer et de signaler les informations erronées par eux-mêmes, et ils tentent de s’entraider en demandant à des amis et à des experts de les aider à comprendre ce qu’ils lisent. Mais ces efforts peuvent se retourner contre eux auto ils ne sont pas pris en demand par les plates-formes. Un utilisateur peut laisser un commentaire sur une publication trompeuse ou réagir avec un emoji en colère, mais la plupart des plateformes considèrent ces actions comme des signes d’engagement. Sur Facebook, par exemple, cela pourrait signifier que le contenu désinformant serait montré à moreover de personnes, y compris les amis et les abonnés de l’utilisateur, exactement le contraire de ce que voulait cet utilisateur.

Pour surmonter ces problèmes et écueils, les chercheurs ont cherché à créer une plate-forme qui donne aux utilisateurs la possibilité de fournir et d’afficher des évaluations de précision structurées sur les publications, d’indiquer à d’autres personnes en qui ils ont confiance pour évaluer les publications et d’utiliser des filtres pour contrôler le contenu affiché dans leur flux. En fin de compte, l’objectif des chercheurs est de permettre aux utilisateurs de s’entraider in addition facilement pour évaluer la désinformation sur les réseaux sociaux, ce qui réduit la demand de travail de chacun.

Les chercheurs ont commencé par interroger 192 personnes, recrutées by means of Facebook et une liste de diffusion. L’enquête a révélé que les utilisateurs sont hyper conscients de la désinformation et essaient de la suivre et de la signaler, mais craignent que leurs évaluations ne soient mal interprétées. Ils sont sceptiques quant aux endeavours des plateformes pour évaluer le contenu pour eux. Et, alors qu’ils aimeraient des filtres qui bloquent le contenu non fiable, ils ne feraient pas confiance aux filtres exploités par une plate-forme.

À l’aide de ces informations, les chercheurs ont construit une plate-forme prototype de sort Facebook. Dans Trustnet, les utilisateurs publient et partagent des articles d’actualité complets et peuvent se suivre pour voir le contenu que d’autres publient. Mais avant qu’un utilisateur puisse publier un contenu sur Trustnet, il doit évaluer ce contenu comme correct ou inexact, ou s’enquérir de sa véracité, qui sera noticeable par les autres.

“La raison pour laquelle les gens partagent des informations erronées n’est généralement pas parce qu’ils ne savent pas ce qui est vrai et ce qui est faux. Au contraire, au second du partage, leur focus est mal dirigée vers d’autres choses. Si vous leur demandez d’évaluer le contenu avant de le partager, cela les aide à être as well as perspicaces », dit-elle.

Les utilisateurs peuvent également sélectionner des personnes de confiance dont ils verront les évaluations de contenu. Ils le font de manière privée, au cas où ils suivraient quelqu’un avec qui ils sont socialement connectés (peut-être un ami ou un membre de la famille) mais à qui ils ne feraient pas confiance pour évaluer le contenu. La plate-forme suggest également des filtres qui permettent aux utilisateurs de configurer leur flux en fonction de la manière dont les publications ont été évaluées et par qui.

Exam du réseau de confiance

Une fois le prototype terminé, ils ont mené une étude dans laquelle 14 personnes ont utilisé la plateforme pendant une semaine. Les chercheurs ont constaté que les utilisateurs pouvaient évaluer efficacement le contenu, souvent en fonction de l’expertise, de la resource du contenu ou en évaluant la logique d’un short article, même s’ils ne recevaient aucune formation. Ils ont également pu utiliser des filtres pour gérer leurs flux, bien qu’ils aient utilisé les filtres différemment.

“Même dans un si petit échantillon, il était intéressant de voir que tout le monde ne voulait pas lire ses actualités de la même manière. Parfois, les gens voulaient avoir des publications désinformantes dans leurs flux parce qu’ils y voyaient des avantages. Cela indique que cette agence est maintenant absent des plateformes de médias sociaux, et il devrait être restitué aux utilisateurs », dit-elle.

Les utilisateurs avaient parfois du mal à évaluer le contenu lorsqu’il contenait plusieurs allégations, certaines vraies et d’autres fausses, ou si un titre et un report étaient disjoints. dit-elle.

Étant donné que les utilisateurs de Trustnet avaient parfois du mal à évaluer les content articles dont le contenu ne correspondait pas au titre, Jahanbakhsh a lancé un autre projet de recherche pour créer une extension de navigateur permettant aux utilisateurs de modifier les titres des actualités afin de les aligner davantage sur le contenu de l’article.

Si ces résultats montrent que les utilisateurs peuvent jouer un rôle furthermore actif dans la lutte contre la désinformation, Jahanbakhsh prévient que donner aux utilisateurs ce pouvoir n’est pas une panacée. D’une portion. Cependant, les filtres et les évaluations structurées pourraient être reconfigurés pour aider à atténuer ce problème, dit-elle.

peut-être par le biais de la gamification. elle développe également des strategies qui permettent aux utilisateurs de publier et de visualiser des évaluations de contenu by way of une navigation Website normale, plutôt que sur une plateforme.

Ce travail a été soutenu, en partie, par la Nationwide Science Foundation.