Utiliser des apps d’intelligence artificielle pour rédiger un message à un ami n’est pas une bonne idée – du moins si votre ami découvre l’utilisation de l’IA, suggère une nouvelle étude.
Les chercheurs ont découvert que les personnes participant à l’étude percevaient qu’un ami fictif qui utilisait l’aide de l’IA pour leur écrire un information ne déployait pas autant d’efforts qu’un ami qui écrivait lui-même un message.
Cette perception peut être compréhensible, mais l’effet va au-delà du concept lui-même, a déclaré Bingjie Liu, auteur principal de l’étude et professeur adjoint de interaction à l’Ohio Condition College.
“Après avoir reçu un message assisté par l’IA, les gens se sentent moins satisfaits de leur relation avec leur ami et se sentent moreover incertains quant à leur posture”, a déclaré Liu.
Mais pour être juste envers l’IA, ce n’est pas seulement l’utilisation de la technologie qui a rebuté les gens. L’étude a également révélé des effets négatifs lorsque les gens apprenaient que leur ami avait obtenu l’aide d’une autre personne pour rédiger un message.
“Les gens veulent que leurs partenaires ou amis fassent l’effort de proposer leur propre information sans l’aide – d’IA ou d’autres personnes”, a déclaré Liu.
L’étude a été publiée en ligne récemment dans le Journal of Social and Individual Relations.
À mesure que les chatbots IA comme ChatGPT deviennent de furthermore en furthermore populaires, les inquiries relatives à leur utilisation deviendront moreover pertinentes et in addition complexes, a déclaré Liu.
L’étude a porté sur 208 adultes ayant participé en ligne. On a dit aux individuals qu’ils étaient de bons amis avec quelqu’un nommé Taylor depuis des années. Ils ont été confrontés à l’un des trois scénarios suivants : ils souffraient d’épuisement professionnel et avaient besoin de soutien, ils étaient en conflit avec un collègue et avaient besoin de conseils, ou leur anniversaire approchait.
Les individuals devaient ensuite écrire un court concept à Taylor décrivant leur predicament actuelle dans une zone de texte sur leur écran d’ordinateur.
Tous les participants ont été informés que Taylor leur avait envoyé une réponse. Dans les scénarios, Taylor a rédigé une première ébauche. Certains individuals ont été informés que Taylor avait un système d’IA qui l’aidait à réviser le information pour obtenir le ton approprié, d’autres ont été informés qu’un membre d’une communauté d’écrivains avait aidé à apporter des révisions, et un troisième groupe a été informé que Taylor avait apporté toutes les modifications au information.
Dans tous les cas, les personnes participant à l’étude ont entendu la même selected à propos de la réponse de Taylor, notamment qu’elle était « réfléchie ».
Pourtant, les individuals à l’étude avaient des details de vue différents sur le concept qu’ils étaient censés avoir reçu de Taylor. Ceux qui ont reçu une réponse aidé par l’IA ont jugé ce que Taylor a fait comme moins approprié et additionally inapproprié que ceux qui ont reçu la réponse écrite uniquement par Taylor.
Les réponses d’IA ont également amené les contributors à exprimer moins de pleasure à l’égard de leur relation, par exemple en évaluant Taylor moins bien pour répondre à « mes besoins en tant qu’ami proche ».
De additionally, les personnes participant à l’étude étaient in addition incertaines quant à leur relation avec Taylor si elles recevaient la réponse assistée par l’IA, étant moins certaines quant à la déclaration “Taylor m’aime en tant qu’ami proche”.
Une raison achievable pour laquelle les gens n’apprécient pas la réponse assistée par l’IA pourrait être qu’ils pensent que l’utilisation de la technologie est inappropriée et inférieure aux humains pour rédiger des messages personnels comme ceux-ci.
Mais les résultats ont montré que les gens réagissaient tout aussi négativement aux réponses dans lesquelles Taylor faisait appel à un autre humain – un membre d’une communauté d’écrivains en ligne – pour l’aider à transmettre le information.
“Ce que nous avons découvert, c’est que les gens ne pensent pas qu’un ami devrait utiliser un tiers — l’IA ou un autre humain — pour les aider à maintenir leur relation”, a déclaré Liu.
La raison, selon l’étude, était que les members estimaient que Taylor dépensait moins d’efforts dans leur relation en s’appuyant sur l’IA ou sur une autre personne pour les aider à rédiger un message.
Moins les contributors évaluaient les endeavours de Taylor en utilisant l’IA ou une autre personne, moins ils étaient satisfaits de leur relation et additionally ils ressentaient d’incertitude quant à leur amitié.
“L’effort est très essential dans une relation”, a déclaré Liu.
“Les gens veulent savoir combien vous êtes prêt à investir dans votre amitié et s’ils ont l’impression que vous prenez des raccourcis en utilisant l’IA pour vous aider, ce n’est pas bon.”
Bien sûr, la plupart des gens ne diront pas à un ami qu’ils ont utilisé l’IA pour rédiger un message, a déclaré Liu. Mais elle a noté qu’à mesure que ChatGPT et d’autres providers deviennent additionally populaires, les gens pourraient commencer à faire un take a look at de Turing dans leur esprit en lisant les messages d’amis et d’autres personnes.
L’expression « test de Turing » est parfois utilisée pour désigner des personnes qui se demandent si elles peuvent déterminer si une motion a été entreprise par un ordinateur ou par une personne.
“Il se pourrait que les gens fassent secrètement ce examination de Turing dans leur esprit, en essayant de déterminer si les messages contiennent une composante d’IA”, a déclaré Liu. “Cela pourrait nuire aux relations.”
La réponse est de faire votre propre travail dans les relations, a-t-elle déclaré.
“N’utilisez pas la technologie simplement parce qu’elle est pratique. La sincérité et l’authenticité comptent toujours beaucoup dans les relations.”
Liu a mené l’étude avec Jin Kang de l’Université Carleton au Canada et Lewen Wei de l’Université de Nouvelle-Galles du Sud en Australie.