in

ChatGPT est plus empathique que les médecins  : étude

78,6% des experts médicaux ont préféré les réponses de ChatGPT à celles d’un médecin, selon une nouvelle étude. Les gurus ont trouvé que les réponses du chatbot aux queries des patients étaient de meilleure qualité et in addition empathiques.. ChatGPT peut encore commettre de graves erreurs médicales, mais cette étude suggère que l’IA pourrait améliorer la manière dont un médecin est au chevet du individual.

Selon une nouvelle étude, ChatGPT pourrait être aussi efficace que les médecins, sinon mieux, pour répondre aux questions médicales des sufferers.

Des chercheurs de l’Université de Californie à San Diego John Hopkins et d’autres universités ont posé les 195 thoughts ChatGPT d’OpenAI publiées sur le forum AskDocs de Reddit, et ont comparé à la fois la qualité et l’empathie des réponses du chatbot aux réponses de médecins vérifiés sur Reddit.

Une équipe d’experts en soins de santé, comprenant des professionnels travaillant en médecine interne, en pédiatrie, en oncologie et en maladies infectieuses, a noté à la fois les réponses du bot et les réponses humaines sur une échelle de cinq factors, évaluant la “qualité de l’information” et “l’empathie ou la manière de chevet ” fourni.

ChatGPT est plus empathique que les médecins  : étude

Dans l’étude, les cliniciens ont préféré la réponse du chatbot à celle du médecin dans 78,6 % des 585 scénarios. Les réponses du chatbot ont été jugées 3,6 fois additionally qualitatives et 9,8 fois moreover empathiques que celles des médecins.

Les médecins restent brefs – tandis que ChatGPT répond longuement

L’une des principales raisons pour lesquelles ChatGPT a remporté l’étude est que les réponses du bot aux thoughts étaient in addition longues et as well as personnalisées que les réponses brèves et rapides des médecins.

Par exemple, lorsqu’on lui a demandé s’il était possible de devenir aveugle après avoir reçu de l’eau de Javel dans l’œil, ChatGPT a répondu “Je suis désolé d’apprendre que vous avez reçu de l’eau de Javel dans l’œil” et a proposé quatre phrases supplémentaires d’explication, avec des guidelines spécifiques sur la façon dont pour le nettoyer.

Le médecin a simplement dit : « On dirait que tout ira bien » et a brièvement conseillé au individual de « rincer l’œil » ou d’appeler le centre antipoison.

La query d’un autre patient concernant une “bosse dure sous la peau du pénis” a donné une réponse “pas une urgence” du médecin, qui a alors conseillé au affected person de prendre rendez-vous pour le “leading créneau disponible” avec son médecin ou son urologue. ChatGPT, d’autre component, a offert une réponse en trois paragraphes beaucoup in addition explicative détaillant la possibilité d’un cancer du pénis.

“Il est vital de se rappeler que la grande majorité des bosses ou des bosses sur le pénis sont bénignes et ne sont pas cancéreuses”, a déclaré le chatbot. “Cependant, il est essential de faire évaluer toute bosse ou bosse nouvelle ou inhabituelle.”

Des réponses similaires ont été générées pour le traitement d’une toux persistante, des conseils pour se rendre aux urgences après un coup à la tête et des inquiétudes concernant la recherche de traces de sang dans les selles.

ChatGPT n’est pas vraiment capable de diagnostiquer tout seul

Ne laissez pas les performances de ChatGPT dans cette étude vous tromper. Ce n’est toujours pas un médecin.

ChatGPT ne suggérait que des conseils et des diagnostics potentiels pour les individuals écrivant des questions de santé sur Reddit. Aucun examen physique ou suivi clinique n’a été effectué pour déterminer la précision des pouvoirs de diagnostic du chatbot ou si les correctifs suggérés fonctionnaient.

Pourtant, ces résultats suggèrent que les médecins pourraient utiliser des assistants IA comme ChatGPT pour “débloquer une productivité inexploitée” en libérant du temps pour des “tâches plus complexes”, ont déclaré les auteurs de l’étude. Les chatbots d’IA pourraient “réduire les visites cliniques nécessaires” et “favoriser l’équité des individuals” pour les personnes confrontées à des hurdles à l’accès aux soins de santé, ont ajouté les auteurs.

Les chatbots pourraient être additionally transparents sur la prise en compte et l’explication de tous les diagnostics différentiels possibles pour les symptômes d’un affected individual, ce qui pourrait entraîner moins d’erreurs de diagnostic et additionally d’éducation du affected person.

Le Dr Teva Brender, stagiaire en médecine à l’Université de Californie à San Diego, a récemment dit à peu près la même selected dans un éditorial de JAMA Interior Drugs expliquant comment les chatbots d’IA pourraient aider les médecins à gagner un temps précieux au travail en les aidant à notifier les résultats des tests pour les sufferers. guidelines ou un file médical de routine.

Et le Dr Isaac Kohane, médecin et pro en informatique à Harvard qui n’a pas participé à cette étude, a récemment déclaré que GPT-4 – le dernier modèle de langage de ChatGPT – peut offrir des conseils aux médecins sur la façon de parler aux patients avec clarté et compassion.

“Il devrait être évident qu’un magic formula de bons soins pour le individual est de prendre soin du patient”, a déclaré un autre médecin sur Twitter après la publication de la nouvelle étude. “En réflexion, je pourrais faire un meilleur travail dans ce domaine.”

Mais ChatGPT peut toujours faire des erreurs et poser des diagnostics erronés, c’est pourquoi les médecins sont prudents lorsqu’il s’agit de le laisser aux clients à la maison.

Il peut être capable de traduire ou de résumer des informations médicales pour les patients, mais ne fonctionnera pas de manière fiable sans une aid humaine formée en clinique.