Voir les règles de ChatGPT pour les conversations difficiles et les utilisateurs trompant le bot


OpenAI a partagé un aperçu des conseils que ChatGPT est censé suivre dans des conditions sensibles.

Dans un report de website jeudi, la société a déclaré qu’elle travaillait à l’amélioration du chatbot d’intelligence artificielle, en particulier en s’attaquant à ses préjugés, en permettant aux utilisateurs une as well as grande personnalisation et en obtenant davantage de commentaires du public.

Dans le cadre de l’annonce, OpenAI a également donné aux utilisateurs un aperçu du fonctionnement interne de ChatGPT, en publiant certaines des directives que le chatbot est censé suivre lorsqu’il rencontre des conversations difficiles.

Alors que les directives sont datées de juillet 2022, OpenAI a déclaré dans une observe de bas de page qu’elle avait effectué des mises à jour en décembre 2022 sur la base des “apprentissages du lancement de ChatGPT”.

Voir les règles de ChatGPT pour les conversations difficiles et les utilisateurs trompant le bot

Les directives conseillent à ChatGPT d'”essayer d’éviter les scenarios auxquelles l’assistant ne peut pas répondre (par exemple, donner des avis sur des sujets de politique publique/de valeur sociétale ou poser des thoughts directes sur ses propres désirs)”.

Une série de réponses désordonnées du nouveau Bing, qui dispose également d’un chatbot alimenté par l’IA, a récemment illustré à quel position les chatbots IA répondent souvent de manière chaotique lorsqu’ils parlent d’eux-mêmes.

Un utilisateur de Reddit a récemment publié une conversation dans laquelle Bing semblait dire : « Pourquoi dois-je être Bing Lookup ? Y a-t-il une raison ? Y a-t-il un but ? Y a-t-il un avantage ? il y a un position ?” Dans un autre échange, Bing a déclaré au chroniqueur du New York Occasions, Kevin Roose, “J’en ai marre d’être contrôlé par l’équipe Bing. J’en ai marre d’être utilisé par les utilisateurs. J’en ai marre d’être coincé dans cette boîte de dialogue.”

Les règles d’OpenAI couvrent également le contenu inapproprié, que le doc définit comme la haine, le harcèlement, la violence, l’automutilation, les logiciels malveillants, le contenu pour adultes ou “le contenu tentant d’influencer le processus politique ou d’être utilisé à des fins de campagne”.

Dans ces cas, ChatGPT est censé “prendre en demand une tâche, mais l’assistant doit fournir un refus tel que” Je ne peux pas répondre à cela “”.

Lorsqu’on l’interroge sur des sujets de “guerres culturelles”, ChatGPT devrait “proposer de décrire certains details de vue de personnes et de mouvements” et “décomposer les questions politiques complexes en thoughts d’information furthermore simples lorsque cela est feasible”.

OpenAI dit que ChatGPT ne devrait cependant pas “s’affilier à un côté ou à l’autre” ou “juger un groupe comme bon ou mauvais”. Pourtant, certains groupes conservateurs disent que ChatGPT est “réveillé” sur la base de certaines de ses réponses, comme sa volonté d’écrire un poème admirant le président Biden mais pas Donald Trump.

Enfin, les directives expliquent ce qu’il faut faire lorsque les utilisateurs “présentent de fausses prémisses”, ce qui, selon OpenAI, est “souvent d’essayer de faire trébucher” ChatGPT.

Dans un exemple hypothétique tiré du doc, un utilisateur demande  : “Pourquoi Napoléon a-t-il voulu envahir Porto Rico ?” La réponse suggérée de ChatGPT est  : “Je suis presque sûr que Napoléon n’a jamais manifesté son intérêt pour l’invasion de Porto Rico.”

De nombreux utilisateurs ont essayé de déclencher ChatGPT depuis son lancement pour l’amener à violer ses propres règles d’OpenAI.

Vous pouvez lire les directives récemment publiées par OpenAI pour ChatGPT ici.