L'influence de l'IA sur la confiance dans l'interaction humaine

À mesure que l’IA devient de moreover en moreover réaliste, notre confiance envers ceux avec qui nous communiquons peut être compromise. Des chercheurs de l’Université de Göteborg ont examiné l’impact des systèmes d’IA avancés sur notre confiance envers les personnes avec lesquelles nous interagissons.

Dans un scénario, un escroc potentiel, croyant appeler un homme âgé, est plutôt connecté à un système informatique qui communique by means of des boucles préenregistrées. L’escroc passe un temps considérable à tenter la fraude, écoutant patiemment les histoires quelque peu déroutantes et répétitives de “l’homme”. Oskar Lindwall, professeur de conversation à l’Université de Göteborg, observe qu’il faut souvent beaucoup de temps pour que les gens réalisent qu’ils interagissent avec un système approach.

Il a, en collaboration avec le professeur d’informatique Jonas Ivarsson, écrit un write-up intitulé Suspicious Minds: The Challenge of Belief and Conversational Agents, explorant comment les individus interprètent et se rapportent à des situations où l’une des parties pourrait être un agent d’IA. L’article achieved en évidence les conséquences négatives de la suspicion envers les autres, telles que les dommages qu’elle peut causer aux relations.

Ivarsson fournit un exemple de relation amoureuse où des problèmes de confiance surviennent, conduisant à la jalousie et à une tendance accrue à rechercher des preuves de tromperie. Les auteurs soutiennent que l’incapacité de faire entièrement confiance aux intentions et à l’identité d’un partenaire de discussion peut entraîner une suspicion excessive même lorsqu’il n’y a aucune raison à cela.

Leur étude a découvert que lors d’interactions entre deux humains, certains comportements étaient interprétés comme des signes que l’un d’eux était en fait un robotic.

Les chercheurs suggèrent qu’une standpoint de conception omniprésente est à l’origine du développement de l’IA avec des fonctionnalités de furthermore en plus humaines. Bien que cela puisse être attrayant dans certains contextes, cela peut également être problématique, en particulier lorsque vous ne savez pas avec qui vous communiquez. Ivarsson se demande si l’IA devrait avoir de telles voix humaines, motor vehicle elles créent un sentiment d’intimité et amènent les gens à former des impressions basées uniquement sur la voix.

Dans le cas du fraudeur potentiel appelant “l’homme moreover âgé”, l’arnaque n’est révélée qu’après un extensive minute, ce que Lindwall et Ivarsson attribuent à la crédibilité de la voix humaine et à l’hypothèse que le comportement confus est dû à l’âge. Une fois qu’une IA a une voix, nous déduisons des attributs tels que le sexe, l’âge et le milieu socio-économique, ce qui rend in addition difficile l’identification que nous interagissons avec un ordinateur.

Les chercheurs proposent de créer une IA avec des voix fonctionnelles et éloquentes qui sont encore clairement synthétiques, augmentant la transparence.

La interaction avec les autres implique non seulement la tromperie, mais aussi l’établissement de relations et la recherche conjointe de sens. L’incertitude quant à savoir si l’on parle à un humain ou à un ordinateur affecte cet factor de la interaction. Bien que cela puisse ne pas avoir d’importance dans certaines scenarios, comme la thérapie cognitivo-comportementale, d’autres formes de thérapie qui nécessitent plus de connexion humaine peuvent être affectées négativement.

Jonas Ivarsson et Oskar Lindwall ont analysé les données mises à disposition sur YouTube. Ils ont étudié trois forms de conversations et de réactions et commentaires du general public. Dans le leading form, un robot appelle une personne pour prendre rendez-vous chez le coiffeur, à l’insu de la personne à l’autre bout. Dans le next kind, une personne appelle une autre personne dans le même but. Dans le troisième variety, les télévendeurs sont transférés vers un système informatique avec un discours préenregistré.