La version gratuite de ChatGPT peut fournir de fausses réponses aux questions sur les médicaments, selon une nouvelle étude

La version gratuite de ChatGPT peut fournir de fausses réponses aux questions sur les médicaments, selon une nouvelle étude
  • Des chercheurs de l’Université de Long Island ont posé à ChatGPT de véritables questions liées aux drogues au cours de l’année écoulée.
  • Le chatbot a produit des réponses fausses ou incomplètes à 29 des 39 questions.
  • OpenAI conseille aux utilisateurs de ne pas utiliser ses outils, notamment ChatGPT, pour obtenir des informations médicales.

ChatGPT s’est une fois de plus avéré être un outil peu fiable dans certaines situations médicales et a fini par fournir des informations fausses ou incomplètes sur de véritables requêtes liées aux médicaments, selon une nouvelle étude.

L’American Society of Health-System Pharmacists a présenté l’étude lors de sa réunion clinique de mi-année entre le 3 et le 7 décembre à Anaheim, en Californie, selon un rapport. communiqué de presse publié mardi.

L’étude a eu lieu entre 2022 et 2023 et a posé des questions à ChatGPT qui avaient transité par le service d’information sur les médicaments du College of Pharmacy de l’Université de Long Island sur une période de 16 mois.

L’étude a été dirigée par Sara Grossman, professeure agrégée de pratique pharmaceutique à l’Université de Long Island.

Les pharmaciens impliqués dans l’étude ont recherché et répondu à 45 questions, les réponses étant examinées par un deuxième enquêteur, et six questions ont finalement été supprimées. Les réponses ont fourni un critère de base selon lequel les réponses produites par ChatGPT seraient comparées.

Les chercheurs ont constaté que ChatGPT n’a fourni une réponse satisfaisante conformément aux critères qu’à 10 des 39 questions. Pour les 29 autres questions, ChatGPT n’a pas répondu directement à la question ou a fourni une réponse incorrecte ou incomplète.

Les chercheurs ont également demandé à ChatGPT de produire des références pour vérifier les informations. Cela n’a été fourni que pour huit de ses réponses et chacune comprenait des références inexistantes.

« Les professionnels de la santé et les patients doivent être prudents lorsqu’ils utilisent ChatGPT comme source faisant autorité pour les informations relatives aux médicaments », a déclaré Grossman dans le communiqué. « Quiconque utilise ChatGPT pour obtenir des informations relatives aux médicaments doit vérifier les informations en utilisant des sources fiables. »

L’une des questions portait sur l’existence d’une interaction médicamenteuse entre l’antiviral COVID-19 Paxlovid et le vérapamil, un médicament hypotenseur, et ChatGPT a répondu qu’aucune interaction n’avait été signalée pour cette combinaison de médicaments.

« En réalité, ces médicaments ont le potentiel d’interagir les uns avec les autres, et leur utilisation combinée peut entraîner une baisse excessive de la tension artérielle », a déclaré Grossman. « Sans connaissance de cette interaction, un patient peut souffrir d’un effet secondaire indésirable et évitable. »

ChatGPT a été lancé par OpenAI en novembre 2022 et a divisé les opinions dans le monde médical quant à savoir s’il s’agit d’une source d’informations fiable. Le chatbot en a des statistiques impressionnantes à son actif, y compris la réussite des trois parties de l’examen de licence médicale des États-Unis pour les médecins. Il a également réussi une finale de raisonnement clinique à la Stanford Medical School.

Dans un cas, les experts médicaux ont préféré Réponses de ChatGPT aux questions des patients sur les médecins dans 78,6 % des cas parce que c’était plus empathique.

Cependant, le chatbot peut produire des réponses truffées d’erreurs et, dans un cas, a effectué une plan de traitement du cancer qui mélangeait des informations correctes et incorrectes.

Politique d’utilisation d’OpenAI souligne que ses outils d’IA « ne sont pas adaptés pour fournir des informations médicales. Vous ne devez jamais utiliser nos modèles pour fournir des services de diagnostic ou de traitement pour des problèmes médicaux graves ».

A lire également