Selon des chercheurs de Penn State, les utilisateurs des médias sociaux peuvent faire autant confiance à l’intelligence artificielle – l’IA – qu’aux éditeurs humains pour signaler les discours de haine et les contenus préjudiciables.
Les chercheurs ont déclaré que lorsque les utilisateurs pensent aux attributs positifs des machines, comme leur précision et leur objectivité, ils font davantage confiance à l’IA. Cependant. leur confiance est moindre.
Les résultats peuvent aider les développeurs à concevoir de meilleurs systèmes de curation de contenu alimentés par l’IA qui peuvent gérer les grandes quantités d’informations actuellement générées tout en évitant la perception que le matériel a été censuré ou classé de manière inexacte, a déclaré S. Shyam Sundar, professeur James P. Jimirro des effets médiatiques au Collège des communications Donald P. Bellisario et codirecteur du laboratoire de recherche sur les effets médiatiques.
“Il y a ce besoin urgent de modération de contenu sur les réseaux sociaux et moreover généralement sur les médias en ligne”, a déclaré Sundar, qui est également affilié à l’Institute for Computational and Info Sciences de Penn State. “Dans les médias traditionnels, nous avons des éditeurs de nouvelles qui servent de gardiens. Mais en ligne, les portes sont si grandes ouvertes, et le contrôle d’accès n’est pas nécessairement faisable pour les humains, en particulier avec le volume d’informations générées. Ainsi, avec l’industrie de additionally en as well as s’orientant vers des solutions automatisées, cette étude examine la différence entre les modérateurs de contenu humains et automatisés, en termes de réaction des utilisateurs.”
Les éditeurs humains et IA ont des avantages et des inconvénients. Selon Maria D. Molina, professeure adjointe de publicité et de relations publiques, Michigan Condition, qui est le leading auteur de l’étude, les humains ont tendance à évaluer plus précisément si le contenu est préjudiciable, par exemple lorsqu’il est raciste ou pourrait potentiellement provoquer l’automutilation.. Cependant.
D’un autre côté. les gens se méfient souvent de ces algorithmes pour faire des recommandations précises, et craignent que les informations ne soient censurées.
“Lorsque nous pensons à la modération automatisée du contenu, cela soulève la query de savoir si les éditeurs d’intelligence artificielle empiètent sur la liberté d’expression d’une personne”, a déclaré Molina. “Cela crée une dichotomie entre le fait que nous avons besoin de modération de contenu – parce que les gens partagent tout ce contenu problématique – et, en même temps. Donc, en fin de compte, nous voulons savoir comment nous pouvons créer des modérateurs de contenu IA auxquels les gens peuvent faire confiance d’une manière qui n’empiète pas sur cette liberté d’expression.”
Transparence et transparence interactive
Selon Molina, réunir les gens et l’IA dans le processus de modération peut être un moyen de construire un système de modération de confiance. Cependant, permettre aux utilisateurs de proposer des solutions aux IA. semble renforcer encore as well as la confiance des utilisateurs.
Pour étudier la transparence et la transparence interactive, entre autres variables, les chercheurs ont recruté 676 contributors pour interagir avec un système de classification de contenu. Les members ont été assignés au hasard à l’une des 18 conditions expérimentales, conçues pour tester comment la supply de modération – IA, humaine ou les deux – et la transparence – régulière, interactive ou sans transparence – pourraient affecter la confiance du participant dans les éditeurs de contenu IA. Les chercheurs ont testé les décisions de classification, à savoir si le contenu était classé comme “signalé” ou “non signalé” pour être nuisible ou haineux. Le contenu du test « nuisible » traitait des idées suicidaires, tandis que le contenu du check « haineux » incluait le discours de haine.
Entre autres découvertes, les chercheurs ont constaté que la confiance des utilisateurs dépend de la dilemma de savoir si la présence d’un modérateur de contenu IA invoque des attributs positifs des devices, tels que leur précision et leur objectivité, ou des attributs négatifs. Langue.
Donner aux utilisateurs la possibilité d’aider le système d’IA à décider si les informations en ligne sont nuisibles ou non peut également renforcer leur confiance. Les chercheurs ont déclaré que les members à l’étude qui ont ajouté leurs propres termes aux résultats d’une liste de mots sélectionnés par l’IA utilisés pour classer les publications faisaient autant confiance à l’éditeur de l’IA qu’à un éditeur humain.
Préoccupations éthiques
Embaucher des éditeurs humains pour la corvée signifie que ces travailleurs sont exposés à des heures d’images et de contenus haineux et violents, a-t-il déclaré.
“Il existe un besoin éthique de modération automatisée du contenu”, a déclaré Sundar, qui est également directeur du Heart for Socially Responsible Synthetic Intelligence de Penn Point out.”
Selon Molina, les travaux futurs pourraient examiner comment aider les gens non seulement à faire confiance à l’IA, mais aussi à la comprendre. La transparence interactive peut également être un élément clé de la compréhension de l’IA, a-t-elle ajouté.
“Ce qui est vraiment vital, ce n’est pas seulement la confiance dans les systèmes, mais aussi l’engagement des gens de manière à ce qu’ils comprennent réellement l’IA”, a déclaré Molina. “Remark pouvons-nous utiliser ce strategy de transparence interactive et d’autres méthodes pour aider les gens à mieux comprendre l’IA ?? Ces issues méritent d’être étudiées..”
Les chercheurs présentent leurs découvertes dans le numéro actuel du Journal of Pc-Mediated Communication.