Les chatbots IA comme ChatGPT sont basés sur de grands modèles de langage qui sont alimentés par une tonne d’informations. Ils sont également formés par des humains qui aident le système à “apprendre” ce qu’est une réponse appropriée.. Voici comment les experts en informatique expliquent remark les bots savent quels mots dire ensuite.
ChatGPT et d’autres chatbots pilotés par l’intelligence artificielle peuvent parler avec des phrases fluides et grammaticalement correctes qui peuvent même avoir un rythme naturel.
Mais ne vous laissez pas berner en confondant ce discours bien exécuté avec une pensée, une émotion ou même une intention, disent les professionals.
Le fonctionnement d’un chatbot ressemble beaucoup as well as à une machine effectuant des calculs mathématiques et des analyses statistiques pour appeler les bons mots et phrases en fonction du contexte, ont déclaré les professionals. Il y a beaucoup de development sur le backend – y compris par des annotateurs humains qui lui donnent également des commentaires – qui aide à simuler des discussions fonctionnelles.
Des bots comme ChatGPT sont également formés sur de grandes quantités de conversations qui ont appris aux devices comment interagir avec les utilisateurs humains. OpenAI, la société à l’origine de ChatGPT, indique sur son web page World-wide-web que ses modèles reçoivent des informations provenant de diverses resources, y compris de ses utilisateurs et du matériel sous licence.
Voici remark fonctionnent ces chatbots :
Les chatbots d’IA comme ChatGPT d’OpenAI sont basés sur de grands modèles de langage, ou LLM, qui sont des programmes formés sur des volumes de texte obtenus à partir d’écrits publiés et d’informations en ligne – généralement du contenu produit par des humains.
Les systèmes sont formés sur des séries de mots et apprennent l’importance des mots dans ces séries, ont déclaré les authorities. Ainsi, toutes ces connaissances imbibées forment non seulement de grands modèles de langage sur des informations factuelles, mais elles les aident également à deviner les modèles de discours et la manière dont les mots sont généralement utilisés et regroupés.
Les chatbots sont également formés par des humains sur la manière de fournir des réponses appropriées et de limiter les messages nuisibles.
“Vous pouvez dire :” C’est toxique, c’est trop politique, c’est une belief “et le formuler de manière à ne pas générer ces choses”, a déclaré Kristian Hammond, professeur d’informatique à la Northwestern University. Hammond est également directeur du Center for Advancing Basic safety of Equipment Intelligence de l’université.
Lorsque vous demandez à un chatbot de répondre à une simple dilemma factuelle, le processus de rappel peut être simple : il déploie un ensemble d’algorithmes pour choisir la phrase la moreover susceptible de répondre. Et il sélectionne les meilleures réponses possibles en quelques millisecondes, et parmi ces meilleurs choix, en présente une au hasard. (C’est pourquoi poser la même issue à plusieurs reprises peut générer des réponses légèrement différentes).
Il peut également décomposer les concerns en plusieurs events, répondre à chaque partie dans l’ordre et utiliser ses réponses pour l’aider à terminer sa réponse.
Supposons que vous ayez demandé au bot de nommer un président américain qui partage le prénom de l’acteur masculin principal du film “Camelot”. Le bot pourrait d’abord répondre que l’acteur en issue est Richard Harris, puis utiliser cette réponse pour vous donner Richard Nixon comme réponse à votre query initiale, a déclaré Hammond.
“Ses propres réponses in addition tôt font partie de l’invite”, a déclaré Hammond.
Mais awareness à ce que les chatbots ne savent pas
Que se passe-t-il lorsque vous lui posez une dilemma dont il ne connaît pas la réponse ? C’est là que les chatbots créent le in addition de problèmes en raison d’un trait inhérent : ils ne savent pas ce qu’ils ne savent pas. Alors ils extrapolent, en se basant sur ce qu’ils savent, c’est-à-dire qu’ils font une supposition.
Mais ils ne vous disent pas qu’ils devinent – ils peuvent simplement présenter des informations comme des faits. Lorsqu’un chatbot invente une details qu’il présente à un utilisateur comme factuelle, cela s’appelle une “hallucination”.
“C’est ce que nous appelons la connaissance de la connaissance ou la métacognition”, a déclaré William Wang, professeur agrégé enseignant l’informatique à l’Université de Californie à Santa Barbara. Il est également codirecteur du groupe de traitement du langage naturel de l’université.
“Le modèle ne comprend pas très bien les inconnues connues”, a-t-il déclaré.