in

Les personnes qui se méfient de leurs semblables font davantage confiance à l'intelligence artificielle

La méfiance d’une personne envers les humains prédit qu’elle aura additionally confiance dans la capacité de l’intelligence artificielle à modérer le contenu en ligne, selon une étude récemment publiée. Les résultats, selon les chercheurs, ont des implications pratiques pour les concepteurs et les utilisateurs d’outils d’IA dans les médias sociaux.

“Nous avons trouvé un modèle systématique d’individus qui ont moins confiance dans les autres humains et qui font davantage confiance à la classification de l’IA”, a déclaré S. Shyam Sundar, professeur James P. Jimirro d’effets médiatiques à Penn Condition. “Sur la foundation de notre analyse, cela semble être dû au fait que les utilisateurs invoquent l’idée que les equipment sont précises, targets et exemptes de préjugés idéologiques.”

L’étude, publiée dans la revue New Media & Society, a également révélé que les “utilisateurs avancés”, qui sont des utilisateurs expérimentés des technologies de l’information, avaient la tendance inverse. Ils ont moins fait confiance aux modérateurs de l’IA motor vehicle ils pensent que les devices n’ont pas la capacité de détecter les nuances du langage humain.

L’étude a révélé que les différences individuelles telles que la méfiance envers les autres et la consommation d’énergie prédisent si les utilisateurs invoqueront des caractéristiques positives ou négatives des devices lorsqu’ils seront confrontés à un système basé sur l’IA pour la modération du contenu, ce qui finira par influencer leur confiance envers le système. Les chercheurs suggèrent que la personnalisation des interfaces en fonction des différences individuelles peut modifier positivement l’expérience utilisateur. Le form de modération de contenu dans l’étude consiste à surveiller les publications sur les réseaux sociaux à la recherche de contenus problématiques tels que les discours de haine et les idées suicidaires.

“L’une des raisons pour lesquelles certains peuvent hésiter à faire confiance à la technologie de modération de contenu est que nous sommes habitués à exprimer librement nos views en ligne. Nous pensons que la modération de contenu peut nous enlever cela”, a déclaré Maria D. Molina, professeure adjointe de arts et sciences de la conversation à la Michigan Point out University. il est vital de renforcer l’implication humaine lors de la prise de décision. D’autre aspect, pour les personnes ayant des stéréotypes positifs sur les machines, nous pouvons renforcer la force de la device en mettant en évidence des éléments comme la précision de l’IA.”

L’étude a également révélé que les utilisateurs ayant une idéologie politique conservatrice étaient additionally susceptibles de faire confiance à la modération alimentée par l’IA. Molina et le co-auteur Sundar, qui co-dirige également le laboratoire de recherche sur les effets des médias de Penn State, ont déclaré que cela pourrait provenir d’une méfiance à l’égard des médias grand public et des entreprises de médias sociaux.

Les chercheurs ont recruté 676 participants des États-Unis. Les individuals ont été informés qu’ils aidaient à tester un système de modération de contenu en cours de développement. Ils ont reçu des définitions du discours de haine et des idées suicidaires, suivies de l’un des quatre messages différents sur les réseaux sociaux. Les messages ont été soit signalés pour correspondre à ces définitions, soit non signalés. Les contributors ont également été informés si la décision de signaler ou non le concept avait été prise par l’IA, un humain ou une combinaison des deux.

La démonstration a été suivie d’un questionnaire qui demandait aux contributors leurs différences individuelles. Les différences comprenaient leur tendance à se méfier des autres, l’idéologie politique, l’expérience avec la technologie et la confiance dans l’IA.

“Nous sommes bombardés de tant de contenus problématiques, de la désinformation au discours de haine”, a déclaré Molina. “Mais, en fin de compte, il s’agit de savoir remark nous pouvons aider les utilisateurs à calibrer leur confiance envers l’IA en raison des attributs réels de la technologie, plutôt que d’être influencés par ces différences individuelles.”

Molina et Sundar affirment que leurs résultats pourraient contribuer à façonner l’acceptation foreseeable future de l’IA. En créant des systèmes personnalisés pour l’utilisateur, les concepteurs pourraient atténuer le scepticisme et la méfiance, et établir une confiance appropriée dans l’IA.

“Une implication pratique majeure de l’étude est de trouver des stratégies de communication et de conception pour aider les utilisateurs à calibrer leur confiance dans les systèmes automatisés”, a déclaré Sundar, qui est également directeur du Middle for Socially Responsible Artificial Intelligence de Penn Condition. “Certains groupes de personnes qui ont tendance à trop croire en la technologie de l’IA devraient être alertés de ses limites et ceux qui ne croient pas en sa capacité à modérer le contenu devraient être pleinement informés de l’étendue de l’implication humaine dans le processus.”