Carole Stavart 31 août 2023
Mons, Belgique – Une première étude au niveau mondial a évalué la performance de ChatGPT4 dans la prise en charge de cas cliniques réels. Les résultats viennent d’être publiés. Si l’IA est capable d'émettre des diagnostics, de suggérer des examens complémentaires et des traitements pertinents, elle manque encore de discernement et les médecins ne sont pas près d’être remplacés.
Les Prs Jérôme Lechien et Stéphane Hans d'Epicura (en collaboration avec le CHU Saint-Pierre et l'Hôpital Foch, Paris) viennent de publier les résultats d'une étude internationale menée sur 45 patients présentant des pathologies fréquentes en médecine générale ou oto-rhino-laryngologie et dont le tableau clinique a été présenté à l’intelligence artificielle (IA) Chat GPT4.
« Ce sont des patients que j'ai reçu en consultation », explique le Dr Jérôme Lechien. « Mon assistant a noté les symptômes, les résultats de mes examens cliniques ainsi que les examens complémentaires, mon diagnostic et mes traitements proposés. Ensuite, il a rentré les symptômes et examens cliniques dans le logiciel d'IA et lui a demandé ses résultats : les examens complémentaires qu'il ferait ainsi que les traitements. Sur base de cela, nous avons demandé à deux collègues italien et espagnol d'analyser les résultats en aveugle. Et de mon côté, j'ai moi-même prescrit ce qu'il fallait au patient », précise le Dr Lechien.
« Nous nous sommes rendu compte que l'IA était très compétente pour réaliser un diagnostic. Dans cette étude, sur les 45 patients, il y a eu 63,5 % de bonnes réponses. Cependant, là où ça coince, c'est au niveau de la prescription des examens complémentaires et des traitements les plus adéquats », explique-t-il.
Aucun commentaire:
Enregistrer un commentaire