Serge Cannasse 29 juin 2023
La mise à disposition gratuite de ChatGPT peut facilement créer la tentation d’y avoir recours en cas de symptômes inquiétants, plutôt que de consulter un moteur de recherche classique (qui donne une masse considérable d’informations sans en vérifier la pertinence et la fiabilité) ou un médecin (qui n’est pas forcément accessible rapidement). Mais cet agent conversationnel est-il vraiment fiable ? Expert en médecine légale, Thomas Lefèvre (Université Sorbonne Paris Nord) répond à la question en partant d’un exemple très banal : association de céphalées, vomissements, fièvre et photophobie. ChatGPT répond qu’il s’agit vraisemblablement d’une migraine ou d’une grippe. Pas de chance ! Surtout pour le patient, il s’agissait d’une méningite.
Pour comprendre l’erreur du logiciel, il faut avoir à l’esprit quelques points. D’abord, son but n’est pas d’énoncer une vérité, mais de donner des réponses vraisemblables, qu’il a appris à formuler en se basant sur les milliards de données textuelles qui lui ont été fournies, sur les réponses énoncées auparavant et sur le travail des humains qui ont classé ces réponses par ordre de vraisemblance. Le problème est que nous avons tous tendance à choisir l’énoncé qui nous arrange plutôt que celui qui est exact. Dans l’exemple donné ici, le diagnostic de grippe est certes ennuyeux, mais plutôt rassurant, ce qui incite à s’en contenter.
À cela, le logiciel objectera spontanément qu’il n’est pas médecin et n’est donc pas en mesure de faire un diagnostic ou de remplacer une consultation médicale. En particulier, il ne peut pas effectuer un examen physique du patient, ni des analyses de laboratoire (ici, du liquide céphalo-rachidien après une ponction lombaire faite à l’hôpital). C’est exact, mais pour Thomas Lefèvre, il s’agit d’une réponse stéréotypée qui sert avant tout à couvrir ses propriétaires de tout risque médico-légal.