lundi 1 janvier 2018

Enquête au cœur de l’intelligence artificielle, ses promesses et ses périls

Résultat de recherche d'images pour "Enquête au cœur de l’intelligence artificielle, ses promesses et ses périls"


L’être humain est-il menacé par la technologie ? La machine risque-t-elle de le dominer ? Notre dossier spécial pour faire le tri entre fantasmes et réalité.


LE MONDE | Par 
L’intelligence artificielle (IA) est à la mode. Rien que dans Le Monde et sur ­Lemonde.fr, le sujet a été évoqué dans 200 articles en 2017, soit presque 15 % de plus qu’en 2016. Il en a été question dans tous les domaines : en économie, en science, et même en politique, ­puisque le premier ministre, Edouard Philippe, a confié une mission sur la question au député (La République en marche, LRM) de l’Essonne et mathématicien Cédric Villani, dont les conclusions sont attendues en janvier.
Il reste à savoir ce que cache ce terme. Bien sûr, il y a ces fantastiques percées montrant que des machines surpassent désormais l’homme dans des tâches spécifiques. Dans le secteur de la santé, elles repèrent mieux que les médecins des mélanomes ou des tumeurs du sein sur des images médicales. Dans le transport, elles causent moins d’accidents que des chauffeurs. Sans compter les autres avancées : la reconnaissance vocale, l’art du jeu (poker, go), l’écriture, la peinture ou la musique.

En coulisse de ce monde si particulier s’activent les géants du ­numérique (Google, Facebook, Amazon, Microsoft, IBM, Baidu…) ou des start-up désireuses de leur voler la vedette.

Elon Musk vs Mark Zuckerberg


Bien sûr, ces développements posent question. Les conséquences sur l’emploi inquiètent, celles sur la responsabilité légale en cas de bug paraissent sans ­réponse. Sans oublier la protection de la vie privée face à ces robots capables de tout voir, tout entendre, tout prévoir (ou presque) et d’envoyer les données ainsi récoltées sur les serveurs d’entreprises dont on ne sait pas toujours ce qu’elles en feront. Déjà, les dérapages ne manquent pas. Des informaticiens n’ont-ils pas mis au point un système de détection de l’orientation sexuelle à partir de simples photos de personnes ?
« Je n’arrête pas de tirer la sonnette d’alarme, mais tant que les gens ne verront pas des robots descendre dans la rue pour tuer tout le monde, ils ne sauront pas comment réagir », déclarait à l’été 2017 Elon Musk, le patron du constructeur automobile Tesla et de l’entreprise spatiale SpaceX. Ces propos ont déclenché une réaction cinglante du patron de Facebook, Mark Zuckerberg, qui les a qualifiés d’« irresponsables » et s’est ­empressé de vanter les avancées promises selon lui par l’IA. « J’ai discuté avec Mark [Zuckerberg] de tout cela, a ­répondu Elon Musk sur Twitter. Sa compréhension du sujet est limitée. »
L’IA échauffe tant les esprits qu’il ­devient nécessaire de faire le tri entre fantasmes et réalité, promesses séduisantes et risques bien réels.

L’emploi menacé ?


C’est l’une des craintes récurrentes. Ces technologies vont-elles rendre l’humain obsolète pour certains métiers ? Rien n’est sûr. Plusieurs études sérieuses – mais contradictoires – ont été publiées à ce sujet. En 2013, des chercheurs ­d’Oxford estimaient que 47 % des ­emplois américains étaient menacés. Trois ans plus tard, l’Organisation de coopération et de développement économiques (OCDE) affirmait que seuls 9 % des ­emplois étaient menacés dans les trente-cinq pays qui la composent.
« Les études s’intéressent juste au phénomène de destructions brutes d’emplois », soulignait Marie-Claire Carrère-Gée, présidente du Conseil d’orientation pour l’emploi, lors d’une audition au Sénat le 19 janvier 2017.
D’après elle, ces recherches ont le tort de ne pas ­tenir compte de l’éventuel effet positif de ces technologies sur les créations de postes ou la transformation d’emplois existants : « A chaque grande ­vague d’innovation technologique, il y a la crainte d’un chômage massif. Or, l’histoire montre que, depuis toujours, le progrès technologique a créé des emplois, y compris ces dernières années. » Impossible, donc, de prévoir avec certitude l’impact de l’IA dans ce domaine dans les années à venir.


Des données biaisées ?


Un certain nombre des technologies d’IA « apprennent » et s’enrichissent à partir d’énormes bases de données créées par des humains. Un exemple : si l’on fournit 10 000 CV à la machine en lui indiquant lesquels ont permis à leur auteur d’obtenir un entretien d’embauche, elle les analysera tous et finira par retenir les mêmes critères de tri que l’être humain. Or, ces lots de données sont souvent biaisés. Résultat : plusieurs programmes ont déjà montré qu’ils reproduisaient le racisme ou le sexisme des humains.
Ainsi, quand un programme d’IA est devenu jury d’un concours de beauté en 2016, il a éliminé la plupart des candidats noirs. Une autre technologie, censée émettre des liens entre les mots, a reproduit certains stéréotypes, en associant par exemple les femmes au foyer et les hommes aux professions scientifiques… Autre problème : en septembre 2017, deux chercheurs de l’université Stanford (Californie) ont annoncé avoir créé un programme capable, d’après eux, de reconnaître l’homosexualité sur le visage.
L’IA apprend donc de nos propres préjugés pour mieux les… reproduire. Comment y remédier ? Si les bases de données sont biaisées, c’est aussi, selon Emmanuel Mogenet, directeur de Google Research Europe, parce qu’elles sont souvent incomplètes, et trop peu représentatives des minorités.
« Il faut trouver les endroits où nous n’avons pas récolté assez de données, ­expliquait-il au Monde en avril 2017. C’est un problème sur lequel on se penche, qui nous préoccupe énormément, car on veut des modèles qui n’ignorent pas les minoritésÇa avance. »


Vers un « piratage » de l’esprit humain ?

Eric Horvitz le dit sans détour : il craint « des attaques de l’IA sur l’esprit humain ». Ce spécialiste du sujet, directeur de Microsoft Research Lab, a listé, au festival SXSW organisé en mars 2017 à Austin (Texas), les dangers potentiels auxquels il faudrait, selon lui, réfléchir dès aujourd’hui. Ce qu’il entend par « attaques » n’a rien à voir avec un ­délire cyberpunk d’implantation de technologies dans le cerveau. Le danger, pour lui, est plus concret, et déjà là. Il évoque notamment des programmes d’IA capables de rédiger un tweet personnalisé, « spécialement conçu » pour une personne, en s’inspirant de son comportement en ligne.
« Sur quoi tweete-t-elle ? Quand est-ce qu’elle répond ? A quels événements a-t-elle participé ? Ces infos peuvent être utilisées pour concevoir un tweet tel qu’il est quasi impossible pour [la personne] de ne pas cliquer. » Une nouvelle étape pour la publicité ciblée, mais pas seulement. « Des entreprises utilisent ces données pour personnaliser des messages, mais aussi pour influencer la façon dont les gens votent, comme Cambridge Analytica. » Cette start-up britannique ­affirme avoir joué un rôle dans la victoire électorale de Donald Trump à la présidentielle de 2016.
Eric Horvitz s’inquiète aussi du risque des « fake news », de fausses informations montées de toutes pièces, qui pourraient bénéficier de ces technologies. Des programmes sont déjà capables de faire dire ce que l’on veut à Barack Obama ou à Vladimir Poutine, en vidéo.


Interdire les armes autonomes ?

Aujourd’hui, rien ne s’oppose techniquement à la création d’armes létales autonomes. Mais les armées affirment que les machines utilisées sont toujours contrôlées à distance par un ­ humain et que jamais aucune ne « prend la ­décision de tirer ». Sauf qu’aucune réglementation internationale n’interdit l’usage d’armes létales autonomes. D’où les discussions en cours, aux Nations unies (ONU), à ce propos.
Ces technologies « existent déjà », s’inquiétait en novembre 2017 Stuart Russell, professeur à l’université de Californie à Berkeley. « Elles peuvent tuer et mettraient en péril notre sécurité et ­notre liberté », ajoutait ce chercheur très engagé.
En 2015, plus d’un millier de personnes, parmi lesquelles de nombreux chercheurs en IA, mais aussi des personnalités comme Elon Musk ou l’astrophysicien Stephen Hawking, avaient appelé à l’interdiction de telles armes. « Les enjeux sont importants : les armes autonomes ont été décrites comme la troisième révolution dans les techniques de guerre, après la poudre à canon et les armes nucléaires », pouvait-on lire dans cet appel.


Tous surveillés ?

La vision par ordinateur a connu d’importants progrès ces dernières années grâce aux avancées du deep learning (« apprentissage automatique profond »). Des programmes sont désormais capables de reconnaître les visages, de distinguer un chat d’un chien et de décrire des images.
De plus en plus, ces innovations s’appliquent à la vidéo. Ainsi, la SNCF a annoncé, peu après les attentats de novembre 2015, qu’elle expérimentait des technologies de ­détection des comportements suspects à partir des caméras de surveillance, en se fondant sur des critères comme « le changement de température corporelle, le haussement de la voix ou le caractère saccadé de gestes, qui peuvent montrer une certaine anxiété ».
Couplé à des technologies de reconnaissance faciale, ce type de système pourrait permettre de détecter en direct une personne fichée S abandonnant un colis suspect. Mais aussi un militant pour les droits de l’homme dans une dictature… Cela dit, ces systèmes sont encore loin de fonctionner à la perfection et le risque d’erreurs demeure important.


Comment protéger les données personnelles ?

Pour fonctionner, bien des programmes d’IA doivent « s’entraîner » à partir de centaines de milliers, voire de millions, de données humaines. Comment sont-elles récoltées ? Les personnes concernées ont-elles accepté leur exploitation ?
En avril 2017, un développeur a publié en ligne un lot de 40 000 photos de profils d’utilisateurs de l’application de rencontres Tinder, afin qu’elles puissent servir aux spécialistes de l’IA. Ces images ont finalement été retirées à la demande de Tinder, dont le règlement interdit ce type d’utilisation.
Google s’est également retrouvé en difficulté après un partenariat conclu en 2015 entre son ­ entreprise d’IA DeepMind et les hôpitaux londoniens du service de santé britannique (NHS). Les données de 1,6 million de patients avaient alors été fournies à DeepMind pour développer une application d’aide au personnel hospitalier, ce qui avait déclenché une polémique outre-Manche.


Expliquer l’inexplicable ?

Il est aujourd’hui possible de créer des programmes de proposition de diagnostic médical ou d’approbation d’une demande de prêt. Or, une bonne partie des décisions prises par ces programmes ne sont pas explicables.
Les ingénieurs ne savent pas retracer la multitude de calculs effectués par la machine pour parvenir à sa conclusion. Autrement dit, si un prêt est ­ refusé ou un CV recalé, aucune justification n’est fournie. Un constat gênant, qui explique notamment que les technologies d’IA ne sont généralement utilisées que pour suggérer des solutions, qui doivent être soumises à validation humaine.
Pour les chercheurs spécialisés, il y a là un enjeu majeur. « L’explication du comportement est très importante, c’est ce qui détermine l’acceptabilité par la société de ces systèmes », indiquait David Sadek, directeur de la recherche à Mines-Télécom, au Sénat, le 19 janvier 2017.


Responsables mais pas coupables ?

« Si les robots se développent, qui sera responsable ? Se posera alors la question de la réparation en cas de dommages », soulignait, le 19 janvier 2017 au Sénat, Jean-Yves Le Déaut, alors député (PS) de Meurthe-et-Moselle.
Que ce soit en France ou ailleurs, la loi ne semble pas être sur le point de changer. « Les systèmes automatisés vont de plus en plus être amenés à prendre des décisions sur des situations que n’auront pas pu prédire les ingénieurs », prévenait Derek Jinks, professeur à la faculté de droit de l’université du Texas, lors du festival SXSW en mars 2017.
Quid, par exemple, des voitures autonomes ? L’interrogation hante les assureurs : si ce véhicule tue quelqu’un dans un accident, la responsabilité sera-t-elle celle du constructeur, de l’ingénieur, du propriétaire de la voiture ou de la personne à la place du conducteur ? Des questions pressantes, et sans réponse, alors que des véhicules autonomes expérimentaux ont déjà parcouru des millions de kilomètres sur de vraies routes aux Etats-Unis.


« Terminator », une fausse menace ?

« La singularité, ça m’énerve », déclarait en avril 2017 Jean Ponce, chercheur en vision artificielle à l’Ecole normale supérieure. Il critiquait les tenants de cette théorie qui désigne le ­moment – hypothétique – où l’IA dépassera ­l’intelligence de l’homme. « Je ne vois aucun indice que la machine intelligente soit plus proche de nous aujourd’hui qu’avant », assurait-il lors d’une conférence organisée par Google à Paris.
Lire la tribune de Frédéric de Gombert :   L’homme continue d’avoir le dernier mot
Dans l’imaginaire collectif, l’IA évoque souvent le film Terminator, dans lequel les machines ont déclaré la guerre à l’homme. Or, dans la réalité, la grande majorité des chercheurs en IA affirment ne pas avoir la moindre idée de la ­façon dont pourrait être créée une machine aussi intelligente que l’homme, capable de dialoguer naturellement, de disposer de sens commun, d’humour… Et encore moins sous la forme d’un robot humanoïde.
L’idée d’une IA qui échapperait au contrôle de son créateur provoque aussi des sourires en coin dans la communauté, qui peine à comprendre pourquoi certains craignent qu’un programme conçu pour jouer au jeu de go s’attaquerait soudain à l’espèce humaine.
« C’est incroyable de constater l’intérêt que cela suscite chez les gens, s’étonnait Eric Horvitz, lors du festival SXSW. Les journalistes ont tendance à diffuser un point de vue extrême, alors que la réalité est beaucoup plus nuancée que cela. » Pour lui, cela « reste des questions très intéressantes (…) sur lesquelles il faut garder un œil, et il ne faut pas se moquer en disant que les gens sont fous ». Mais, souligne-t-il, « ce sont des questions de très long terme, et nous devons réfléchir aux questions qui nous concernent directement, maintenant ».

Aucun commentaire:

Enregistrer un commentaire