Ces nouveaux outils doivent encore faire la preuve de leur intérêt, et soulèvent des questions éthiques et pratiques, à la fois pour le pratiquant et le patient. A Montpellier, le mardi 14 mai 2019, les Rencontres économiques et sociétales d’Occitanie (RESO) exploreront le futur de l’emploi à l’heure de la transformation numérique.
« Le développement de l’IA est appelé à transformer en profondeur les pratiques des professionnels de santé : aide au diagnostic, appui à la construction d’une thérapie, suivi évolutif du patient… », affirment les auteurs du rapport Villani, Donner un sens à l’intelligence artificielle (mars 2018). Mais à quelle échéance ? Pour l’heure, seuls les algorithmes développés au service de l’imagerie médicale devraient s’imposer rapidement. L’agence américaine du médicament, la FDA, a ainsi donné son feu vert, en avril 2018, à la mise sur le marché d’un premier logiciel capable de diagnostiquer, à partir d’une photo (le fond d’œil du patient), une déficience visuelle liée au diabète, la rétinopathie diabétique. Pour la première fois au monde, une IA était autorisée (aux Etats-Unis) à poser un diagnostic sans qu’un médecin intervienne.
Les concepteurs de ces outils devront aussi convaincre les médecins de les adopter – et l’Assurance-maladie de les financer
Mais ces outils doivent encore faire la preuve de leur robustesse et de leur intérêt. « On manque d’études prospectives pour évaluer leur bénéfice net, s’il existe, dans la pratique clinique », admettent les auteurs d’un éditorial publié dans la revue Nature Medicine, le 7 janvier. « Le développement de ces nouveaux outils est plus complexe que prévu, confirme Francis Besse, radiologue au centre cardiologique du Nord à Saint-Denis. Mais les barrières tombent très vite. » On reproche ainsi un manque de transparence à ces algorithmes. « Mais les spécialistes du traitement du signal, comme le mathématicien Stéphane Mallat, du Collège de France, commencent à comprendre cette boîte noire. » Les concepteurs de ces outils devront aussi convaincre les médecins de les adopter – et l’Assurance-maladie de les financer. « Pour que ces algorithmes soient mieux acceptés des médecins, ils devront intégrer les règles et les contraintes de leur métier », souligne Nikos Paragios, professeur de mathématique à CentraleSupélec.
Le problème de l’accès aux données
Autre obstacle : les barrières réglementaires. « On ignore quelles seront les procédures d’homologation de ces logiciels », indique Alain Livartowski, directeur des data de l’Institut Curie (Paris). Un algorithme validé sur des populations américaines, par exemple, sera-t-il valable sur des populations européennes, asiatiques ou africaines ? Sans compter que, pour entraîner ces algorithmes à reconnaître des images médicales, il faut une masse considérable de données de santé. « Le principal problème des sociétés qui développent ces outils, c’est l’accès à ces données, témoigne Francis Besse, soulevant une vague de questions morales, éthiques et juridiques. Qui est propriétaire de ces données : le malade ? le médecin ? l’hôpital ? le data center ? les financeurs du système de santé ? Comment faire pour que la protection de l’individu ne s’oppose pas à l’intérêt collectif, en freinant l’avancée de la recherche ? »
De fait, l’accès à ces données présente une vertigineuse asymétrie, de part et d’autre de l’Atlantique. En France et en Europe, ces données doivent être compatibles avec les règles posées par la CNIL et le RGPD, alors que, aux Etats-Unis, les Gafam en collectent à foison et sans états d’âme. Dernier casse-tête, et non des moindres, celui de la responsabilité. Si un logiciel d’IA fait une erreur, et si le médecin suit son « avis », qui sera responsable ? « Il est probable que le médecin ne sera pas dégagé de sa responsabilité, ce qui est une bonne chose », estime Alain Livartowski.
Aucun commentaire:
Enregistrer un commentaire