publié le
La machine sanctifiée. © Aideal Hwa/Unsplash
Que de rebondissements ! Après trois années de discussions, la révision de la loi bioéthique n’en finit pas de susciter des dissensions. Le 17 février 2021, la commission mixte paritaire du Sénat et de l’Assemblée nationale s’est soldée par un relatif échec. Si les débats sur la PMA continuent de diviser, cette loi entérine toutefois un principe : la « garantie humaine ». Kézaco ? L’enjeu est de s’assurer que notre santé ne dépende pas exclusivement des actions d’un algorithme, notamment des fameuses « machines apprenantes », qui occupent une place croissante dans le domaine de la santé.
Concrètement, le sort réservé à un traitement médical réalisé par l’IA doit désormais être supervisé par un médecin. Ouf ! Mais les contours de la supervision restent à définir. Car il existe un problème majeur : la difficulté pour la personne d’expliquer le raisonnement d’une « machine apprenante ». Or, sans comprendre le fonctionnement d’une machine, comment peut-on déterminer ce qui a causé une éventuelle erreur – et en tirer les conséquences en termes de responsabilité ? La pensée de l’inclassable Jacques Ellul, sociologue, juriste et théologien français, offre des éléments critiques pour saisir le développement de l’IA et du principe de « garantie humaine ».
Aucun commentaire:
Enregistrer un commentaire