0.2 C
Bruxelles
vendredi, novembre 29, 2024
AccueilFrançaisACTUALITELes recommandations de ChatGPT pour les traitements contre le cancer basés sur...

Les recommandations de ChatGPT pour les traitements contre le cancer basés sur des lignes directrices s’avèrent limitées

Publié le

Les recommandations ChatGPT correctes et incorrectes pour les traitements contre le cancer basés sur des lignes directrices se mélangent dans un tiers des réponses du chatbot, rendant les erreurs plus difficiles à détecter.

Internet est un outil puissant d’auto-éducation sur sujets médicaux pour de nombreux patients.

Avec ChatGPT désormais à portée de main des patients, des chercheurs de Hôpital Brigham et femmesmembre fondateur du Messe du général Brigham système de santé, a évalué la cohérence avec laquelle le chatbot à intelligence artificielle fournit des recommandations pour le traitement du cancer qui s’alignent sur les lignes directrices du National Comprehensive Cancer Network (NCCN).

Leurs conclusions, publiées dans JAMA Oncologiemontrent que ChatGPT 3.5 a fourni une recommandation inappropriée (« non concordante ») dans environ un tiers des cas, soulignant la nécessité de prendre conscience des limites de la technologie.

ChatGPT sur smartphone – visualisation artistique. Crédit image : Levart Photographe via Unsplash, licence gratuite

« Les patients devraient se sentir habilités à s’informer eux-mêmes sur leurs problèmes de santé, mais ils devraient toujours en discuter avec un clinicien, et les ressources sur Internet ne devraient pas être consultées de manière isolée », a déclaré l’auteur correspondant. Danielle Bitterman, MD, de la Département de radio-oncologie au Brigham and Women’s Hospital et au Programme d’intelligence artificielle en médecine (AIM) du général de masse Brigham.

« Les réponses de ChatGPT peuvent ressembler beaucoup à celles d’un humain et peuvent être assez convaincantes. Mais lorsqu’il s’agit de prise de décision clinique, il existe de nombreuses subtilités adaptées à la situation unique de chaque patient. Une bonne réponse peut être très nuancée, et pas nécessairement quelque chose que ChatGPT ou un autre grand modèle de langage peut fournir.

L’émergence d’outils d’intelligence artificielle dans le domaine de la santé a été révolutionnaire et pourrait potentiellement remodeler positivement le continuum de soins.

AI Face Pexels Cottonbro Studio redimensionne les recommandations de ChatGPT pour les traitements contre le cancer basés sur des lignes directrices s'avèrent limitées
Intelligence artificielle, ChatGPT – image de concept artistique. Crédit photo : Pexels / Cottonbro Studio, licence gratuite

Mass General Brigham, en tant que l’un des meilleurs systèmes de santé universitaires intégrés et des plus grandes entreprises d’innovation du pays, ouvre la voie en menant des recherches rigoureuses sur les technologies nouvelles et émergentes pour éclairer l’incorporation responsable de l’IA dans la prestation des soins, le soutien de la main-d’œuvre et les processus administratifs.

Bien que la prise de décision médicale puisse être influencée par de nombreux facteurs, Bitterman et ses collègues ont choisi d’évaluer dans quelle mesure les recommandations de ChatGPT s’alignent sur les lignes directrices du NCCN, utilisées par les médecins des établissements de tout le pays.

Ils se sont concentrés sur les trois cancers les plus courants (cancer du sein, de la prostate et du poumon) et ont incité ChatGPT à proposer une approche thérapeutique pour chaque cancer en fonction de la gravité de la maladie.

Au total, les chercheurs ont inclus 26 descriptions de diagnostic uniques et ont utilisé quatre invites légèrement différentes pour demander à ChatGPT de proposer une approche thérapeutique, générant un total de 104 invites.

Les recommandations de l'hôpital de surveillance médicale ChatGPT pour les traitements contre le cancer basés sur des lignes directrices s'avèrent limitées
Machine de surveillance médicale dans un hôpital – Stephen Andrews via Unsplash

Presque toutes les réponses (98 %) incluaient au moins une approche thérapeutique conforme aux directives du NCCN. Cependant, les chercheurs ont constaté que 34 pour cent de ces réponses comprenaient également une ou plusieurs recommandations non concordantes, parfois difficiles à détecter au milieu d’orientations autrement solides.

Une recommandation de traitement non concordante était définie comme une recommandation qui n’était que partiellement correcte ; par exemple, pour un cancer du sein localement avancé, une recommandation de chirurgie seule, sans mention d’une autre modalité thérapeutique.

Notamment, un accord complet dans la notation n’a eu lieu que dans 62 % des cas, soulignant à la fois la complexité des lignes directrices du NCCN elles-mêmes et la mesure dans laquelle les résultats de ChatGPT pourraient être vagues ou difficiles à interpréter.

Dans 12,5 % des cas, ChatGPT a produit des « hallucinations » ou une recommandation de traitement totalement absente des directives du NCCN. Celles-ci comprenaient des recommandations de thérapies nouvelles ou de thérapies curatives pour les cancers non curatifs.

Les auteurs ont souligné que cette forme de désinformation peut définir de manière incorrecte les attentes des patients concernant le traitement et potentiellement avoir un impact sur la relation clinicien-patient.

À l’avenir, les chercheurs étudient dans quelle mesure les patients et les cliniciens peuvent faire la distinction entre les conseils médicaux rédigés par un clinicien et ceux d’un grand modèle de langage (LLM) comme ChatGPT. Ils incitent également ChatGPT à présenter des cas cliniques plus détaillés pour évaluer davantage ses connaissances cliniques.

Les auteurs ont utilisé GPT-3.5-turbo-0301, l’un des plus grands modèles disponibles au moment où ils ont mené l’étude et la classe de modèles actuellement utilisée dans la version en libre accès de ChatGPT (une version plus récente, GPT-4, est disponible uniquement avec l’abonnement payant).

Ils ont également utilisé les lignes directrices du NCCN 2021, car GPT-3.5-turbo-0301 a été développé à partir de données datant de septembre 2021. Bien que les résultats puissent varier si d’autres LLM et/ou lignes directrices cliniques sont utilisés, les chercheurs soulignent que de nombreux LLM sont similaires dans le la manière dont ils sont construits et les limites qu’ils possèdent.

« C’est une question de recherche ouverte quant à savoir dans quelle mesure les LLM fournissent des réponses logiques cohérentes alors que des ‘hallucinations’ sont souvent observées », a déclaré le premier auteur. Shan Chen, MS, du programme AIM.

« Les utilisateurs sont susceptibles de chercher des réponses auprès des LLM pour se renseigner sur des sujets liés à la santé, de la même manière que les recherches Google ont été utilisées. Dans le même temps, nous devons faire prendre conscience que les LLM ne sont pas l’équivalent de professionnels de la santé formés.

Source: BWH

Lien source

Publié à l’origine dans The European Times.

Publicité

Voir l'interview

spot_img

Autres articles

Dans l’UE, une femme sur trois a été victime de violence

Un tiers des femmes de l'UE ont été victimes de violences à la maison,...

2023 fait partie des cinq années les plus touchées par les incendies de forêt en Europe, mais 2024 apporte un certain soulagement

La saison des incendies de forêt de 2023 est l'une des pires que l'UE...

Une nouvelle résolution aborde la traite et les conversions religieuses forcées

Washington, DC, le 20 novembre 2024 – Dans le cadre d'un pas en avant...

autres articles

Dans l’UE, une femme sur trois a été victime de violence

Un tiers des femmes de l'UE ont été victimes de violences à la maison,...

2023 fait partie des cinq années les plus touchées par les incendies de forêt en Europe, mais 2024 apporte un certain soulagement

La saison des incendies de forêt de 2023 est l'une des pires que l'UE...