Par la voix de scientifiques, de philosophes ou de grands noms de la Silicon Valley, la question de la place de l’éthique dans le développement de l’IA s’invite de plus en plus dans le débat public.
« Nous ne concevrons ni ne déploierons d’intelligence artificielle [IA] dans des technologies qui sont globalement nocives, ou qui présentent des risques de l’être. » Ce serment éthique est tiré des « principes » publiés en juin par Google sur l’intelligence artificielle. L’IA, ce vaste ensemble de techniques visant à faire accomplir par des logiciels des tâches pour lesquelles l’homme utilise son intelligence : trier des informations, conduire une voiture, émettre une recommandation…
Cette profession de foi inhabituelle a été élaborée en réponse à une fronde interne à Google : des employés demandaient l’arrêt de la participation au projet militaire Maven, dans le cadre duquel l’entreprise aidait l’armée américaine à analyser des images de drone.
Cet épisode est la dernière des sorties médiatiques qui ont poussé le thème de l’éthique sur l’avant-scène de l’intelligence artificielle. Des figures comme Elon Musk, le patron du constructeur automobile Tesla, ou Stephen Hawking, l’astrophysicien britannique mort en mars, ont utilisé leur aura pour alerter sur la menace de voir l’IA supplanter les humains, ou pour réclamer, dans une lettre ouverte, l’interdiction des « armes autonomes », surnommées « robots tueurs ».
Depuis, d’autres affaires ont illustré les injustices que l’intelligence artificielle pouvait induire, par exemple en propageant des « biais ». Aux Etats-Unis, un logiciel utilisé pour prévoir le risque de récidive chez les prévenus a été accusé par le site d’investigation ProPublica de discriminer les Noirs, pénalisés par des scores en moyenne plus élevés. « Il y a une prise de conscience. Dans le secteur de l’IA, les questions d’éthique sont devenues brûlantes, résume Jean-Gabriel Ganascia, le président du comité d’éthique du CNRS. On est en train de se rendre compte que si on veut que les technologies d’intelligence artificielle s’imposent, elles doivent être acceptées. »
Au-delà des déclarations d’intention, comment mettre en œuvre des principes éthiques ? Dans les grandes entreprises, on assure que leur mise en place a commencé : « Nous ne faisons pas qu’énoncer des principes », assure Jeff Dean, responsable de l’IA chez Google. L’entreprise participe par exemple aux recherches sur l’éthique, encore balbutiantes. Microsoft, de son côté, a créé sept comités, notamment sur « les utilisations sensibles de l’IA », ainsi que sur « les biais et l’équité ». « C’est un début, indique le responsable maison, Eric Horvitz. On étudie des cas concrets. »
« Travailler avec le monde extérieur »
L’entreprise aurait ainsi refusé de vendre à un Etat dictatorial un système « intelligent » de gestion des appels d’urgence pour les pompiers ou la police. Facebook est aussi « très actif » en matière d’éthique, selon Joaquin Quiñonero Candela, son directeur de « l’apprentissage automatique appliqué » : « Nous avons un raisonnement structuré, inspiré de nos principes », souligne-t-il. Ce corpus, qui n’est pas public, inclut notamment « la lutte contre les discriminations », mais son contenu est appelé à « évoluer ».
« Ce sont un peu les Nations unies de l’intelligence artificielle »
Tout comme la formation à l’éthique des ingénieurs en IA, ces sujets sont récents et mouvants. « Il est impossible, pour une seule entreprise, de résoudre toutes les questions ouvertes. Elles touchent le droit, les mathématiques, la philosophie… note M. Candela. Il faut absolument travailler avec le monde extérieur. » DeepMind, créateur d’un logiciel champion du jeu de go et filiale de la maison mère de Google, Alphabet, va organiser la première réunion de son groupe de conseillers extérieurs en éthique, issus notamment des structures universitaires dévolues à ces questions.
« L’interdisciplinarité » est un impératif mis en avant par tous, et particulièrement par Partnership on AI (PAI). Cette structure atypique a été fondée fin 2016 par Amazon, DeepMind, Google, Facebook, IBM et Microsoft, mais sa gouvernance est partagée avec des représentants de la société civile et des ONG, comme Amnesty International ou l’Electronic Frontier Foundation, réputée pour ses combats en faveur des libertés sur le Web. « Ce sont un peu les Nations unies de l’intelligence artificielle », sourit Mark Nitzberg, du Center for Human-Compatible AI de l’Université de Berkeley (Californie).
D’aucuns trouvent d’ailleurs que PAI est une structure lourde qui avance lentement. Ce n’est qu’en octobre 2017 qu’a été nommée sa directrice exécutive, Terah Lyons, une ex-conseillère de l’administration Obama sur l’intelligence artificielle. Si les recrutements se poursuivent, les quelques membres de l’équipe salariée étaient, cet été, encore loin de remplir les locaux du siège, un loft flambant neuf sis dans le centre de San Francisco. « Nous avançons aussi vite que possible sans prendre de raccourcis », se défend Mme Lyons, précisant que la taille de la structure, avec ses grands groupes de travail, reflète sa volonté d’être ouverte et « inclusive ». « Nous souhaitons même devenir une organisation encore plus globale et diverse, en intégrant des syndicats de salariés. »
Face à ces initiatives privées, la puissance publique veut aussi avoir son mot à dire. C’est même sa « responsabilité morale », pour éviter que « les démocraties succombent en quelque sorte à un syndrome orwellien où la technologie n’est plus un instrument de liberté », a énoncé Emmanuel Macron lors du sommet « AI for Humanity »,en mars, à Paris. Dans le rapport ayant servi de base à la « stratégie IA » de la France, le député LRM Cédric Villani a proposé la création d’un « comité d’éthique pour les technologies numériques et l’intelligence artificielle ».
« Pas de consensus »
Ailleurs en Europe, la Finlande, le Royaume-Uni et bientôt l’Allemagne développent aussi leur « stratégie IA », avec des volets éthiques. Ces initiatives sont certes vertueuses, mais il est indispensable d’agir en plus à l’échelle supranationale, prévient la Commission européenne. « Une approche non coordonnée est risquée. Un patchwork réglementaire pourrait engendrer des stratégies d’éthique à la carte »,avertit un rapport de l’European Group on Ethics in Science and New Technologies (EGE), qui conseille la Commission. Cette dernière a formulé en avril sa propre « stratégie IA » et un groupe de travail sur l’éthique doit proposer des principes d’ici à fin 2018.
« Certains préfèrent avancer sur les technologies d’abord et réfléchir à l’éthique après »
Emmanuel Macron a esquissé un schéma encore plus global : il faut « créer un GIEC de l’intelligence artificielle, c’est-à-dire une expertise mondiale indépendante », a-t-il proposé à AI for Humanity. Le modèle est le « groupe d’experts intergouvernemental sur l’évolution du climat »créé en 1988, en amont des accords de Kyoto (Japon) contre les gaz à effet de serre. Mais, là encore, le travail est très loin d’être achevé.
Paris espère convaincre, avant la fin de l’année, un premier groupe de quelques pays, dont le Canada. « Il n’y a pas de consensus mondial, explique Mounir Mahjoubi, le secrétaire d’Etat au numérique. Certains préfèrent avancer sur les technologies d’abord et réfléchir à l’éthique après. Ils ne veulent pas de règles limitatives. » La France et l’Europe, elles, se voient en championnes de l’éthique dans l’IA face aux Américains et aux Chinois.
Derrière les débats moraux se pose l’épineuse question de la nature des règles à établir. Faut-il instaurer des lois ? « La profusion actuelle de principes éthiques peut être vue comme une manière d’attirer l’attention sur des sujets de “soft law” [le « droit mou », caractérisé par sa portée non obligatoire et non contraignante], afin d’éviter une régulation plus stricte », alerte Jim Dratwa, directeur de l’EGE. M. Ganascia, du CNRS, va plus loin : « Ce qui est très gênant, c’est que, pour les grandes entreprises technologiques, ces questions d’éthique sont aussi une façon de se construire une image positive à peu de frais. » Le secteur privé pousserait à adopter des règles souples, comme des chartes, plutôt que des lois.
Pour Jeff Dean, de Google, la régulation est « une question délicate, car le secteur évolue très vite ». Chez Partnership on AI, on prône l’échange de « bonnes pratiques » ou de « cas pratiques », mais aussi la « standardisation », en discussion depuis fin 2017 au sein de l’organisme de certification ISO. « La régulation doit jouer un rôle, reconnaît pourtant l’ancienne conseillère d’Obama, Terah Lyons. La question est : sous quelle forme ? »
A la décharge des entreprises, ces interrogations ne sont pas non plus tranchées dans la sphère publique. Certaines seront examinées dans le cadre des Etats généraux du numérique lancés au mois de juillet, avance M. Mahjoubi, qui cite en exemple quelques questions : que pourrait-on demander à un acteur privé détenteur de données ou de technologies qui représentent un grand intérêt ou un grand danger ? Certaines recherches pourraient-elles être soumises à des restrictions, comme celles sur l’embryon humain ? Les lois sur la bioéthique ne seraient toutefois pas applicables « telles quelles » à l’intelligence artificielle : « Il y a des conversations, mais pas d’évidence », résume le secrétaire d’Etat. D’autant que la France veut aussi faire émerger des « champions de l’IA »…
« Un moment unique »
Enfin, une dernière ligne de fracture, plus souterraine, traverse les débats : elle oppose les cassandres au camp des optimistes, à l’image de l’altercation publique entre Elon Musk et Mark Zuckerberg, en juillet 2017. Le fondateur de Facebook avait jugé « irresponsable » le patron de Tesla, qui s’était demandé s’il fallait attendre que des robots « descendent dans la rue pour tuer tout le monde » avant que les gens prennent enfin conscience des dangers de l’IA.
Appliquée à l’éthique, la bataille oppose, d’un côté, ceux pour qui l’enjeu est de se prémunir contre le risque de voir émerger une « superintelligence » incontrôlable dans dix, vingt ou cent ans, et, de l’autre, ceux pour qui ces projections à long terme, voire ces fantasmes, détournent l’attention des problèmes urgents, comme la sécurité des voitures autonomes ou les discriminations.
Récemment, l’heure était plutôt à l’apaisement. « Chercher des solutions aux problèmes du quotidien nous entraîne pour les menaces à long terme. Il faut de la collaboration », estime Dario Amodei, à la fois membre de Partnership on AI et d’OpenAI, une structure créée par l’investisseur Sam Altman et Elon Musk pour faire émerger une superintelligence « sûre ». « En deux ans, la recherche sur les risques à long terme de l’intelligence artificielle est beaucoup plus “mainstream” [grand public]. Elle n’est plus décrite comme une activité réservée aux cinglés ou aux écrivains de science-fiction », se félicite Nick Bostrom, chercheur suédois connu pour ses prévisions inquiétantes sur les IA hostiles.
« Mais ces recherches ne sont encore qu’une goutte d’eau par rapport à tout ce qui est investi dans l’avancée des capacités techniques de l’IA », philosophe le directeur du Future of Humanity Institute de l’Université d’Oxford (Royaume-Uni), également conseiller en éthique de DeepMind. « Nous sommes au milieu du travail à accomplir. Mais nous vivons un moment unique », résume Terah Lyons, appelant à faire preuve « d’humilité ». Une vertu qui, à l’image de l’intelligence artificielle, a de l’avenir.
Aucun commentaire:
Enregistrer un commentaire