Photo Smetek. SPL. Cosmos
Qu’est-ce qui différencie encore l’homme de la machine ? Si elle est loin de la richesse du cerveau humain, l’intelligence artificielle cherche aujourd’hui de nouvelles idées du côté des neurosciences.
Il y a quelque chose d’ontologiquement déplaisant, dans cette histoire d’intelligence artificielle (IA). Difficile de ne pas se sentir dépossédé de cette exclusivité qu’on pensait éternelle, inscrite dans le marbre de l’évolution. Comme pour nous rassurer avant même qu’on s’inquiète trop, les spécialistes sont formels : l’intelligence artificielle générale, celle qui sera capable de comprendre le monde aussi bien que nous, de raisonner comme nous, et, accessoirement, de nous dépasser si l’envie lui prend, n’est pas pour demain. Ni pour après-demain. Un réseau de neurones artificiels n’a rien à voir avec un cerveau, qu’il soit humain ou non. Les «neurones» du premier sont, au niveau fondamental, des fonctions mathématiques, alors que les neurones biologiques sont des cellules complexes, des transmetteurs de signaux bioélectriques, dont on n’a pas encore percé tous les secrets. Certains chercheurs rechignent même à parler d’intelligence artificielle et préfèrent des termes aux consonances plus techniques comme «apprentissage statistique». Pour autant, pour espérer rendre les réseaux de neurones plus performants, il faut se creuser la tête. Ou, plus exactement, creuser dans notre tête.
«Dans la conception d’un objet technologique, il y a un point de départ qui se trouve dans la nature. C’est une source d’inspiration. Mais on s’en détache très vite»,explique Stanley Durrleman, chercheur de l’Institut national de recherche en informatique et en automatique (Inria) au sein de l’Institut du cerveau et de la moelle épinière (ICM). Et, reprenant une métaphore des plus courantes du milieu, il illustre : «Si on veut voler, on regarde ce que fait un oiseau. Mais un avion n’a plus rien à voir avec les oiseaux. Avec les réseaux de neurones, on est un peu dans cette situation.» Cette inspiration initiale se retrouve dans les articles fondateurs de la discipline, entre la fin des années 50 et le milieu des années 80, qui ont été pour la plupart publiés dans des revues scientifiques comme Cognitive Science ou Psychological Review. Mais avec le temps, ces réseaux de neurones sont surtout devenus des outils purement informatiques. Il suffit pour s’en convaincre de regarder les applications ultra-spécialisées du deep learning(reconnaissance d’images, traduction, reconnaissance vocale, etc.), développées depuis 2012 avec l’explosion des performances de ces algorithmes.
Pourtant, ces liens entre neurones naturels et artificiels, devenus distants, se sont resserré ces derniers temps, à la faveur d’un double mouvement. Celui venu des neurosciences, d’une part, qui utilisent l’apprentissage machine pour pouvoir plus finement interpréter les signaux venus du cerveau. Et, d’autre part, celui de la recherche fondamentale en intelligence artificielle qui doit faire progresser ces algorithmes et qui cherche de nouvelles inspirations du côté des sciences cognitives. Un rapprochement qui enthousiasme Stanislas Dehaene, titulaire de la chaire de psychologie cognitive expérimentale au Collège de France et directeur de l’unité de neuro-imagerie cognitive à Neurospin : «Un dialogue s’est enclenché et il est extrêmement fécond. D’ailleurs, les sociétés d’intelligence artificielle commencent à débaucher des chercheurs qui viennent de laboratoires comme le mien.»
Symbole de cette proximité retrouvée : le retour au premier plan des revues de sciences cognitives. Un article de 2017, publié dans la revue Neuron, est particulièrement révélateur. Titré «l’intelligence artificielle inspirée par les neurosciences», il est cosigné par Demis Hassabis, fondateur de Deepmind, à l’origine du programme Alphago qui a défrayé la chronique en 2016 en battant le champion de go Lee Sedol. Le parcours même de Hassabis le destinait à être au cœur de ce travail transdisciplinaire pour «Résoudre l’intelligence» - le slogan de Deepmind. Après une adolescence de champion d’échecs au plus haut niveau international et un passage remarqué dans l’industrie du jeu vidéo (notamment avec Theme Park en 1994), il poursuit à Cambridge des études en informatique, qu’il complète plus tard avec une thèse en neurosciences à University College London (UCL), où il est reconnu pour ses travaux sur l’amnésie, la mémoire épisodique et l’imagination. En introduction de cet article dans Neuron, il explique : «Les neurosciences sont une source riche d’inspiration pour de nouveaux types d’algorithmes et d’architectures, complémentaires des méthodes mathématiques et basées sur la logique qui ont largement dominé l’approche traditionnelle de l’intelligence artificielle.»
C’est que la recherche fondamentale en IA doit faire face à plusieurs obstacles de taille pour pouvoir avancer dans sa quête de généralisation. Pour Josh Tenenbaum, spécialiste des sciences cognitives computationnelles au Massachusetts Institute of Technology (MIT), cette intelligence propre à l’humanité qu’on espère pouvoir transmettre aux machines, c’est surtout la capacité de modéliser le monde. Il la définit ainsi, dans une conférence donnée début 2018 : «Expliquer et comprendre ce qu’on voit ; imaginer des choses qu’on pourrait voir, mais qu’on n’a pas encore vues ; résoudre des problèmes et planifier des actions pour rendre ces choses réelles ; construire de nouveaux modèles quand on en apprend plus sur le monde ; et enfin partager nos modèles, communiquer avec les autres, comprendre leurs modèles, apprendre d’eux et avec eux.» A cette liste d’objectifs ambitieux, Dehaene rajoute celui de l’efficacité : «Notre cerveau est beaucoup plus économe en données. Un bébé n’a pas besoin qu’on lui répète des millions de fois un mot pour réussir à comprendre de quoi il s’agit. Il l’entend une fois, deux fois, trois fois, et ça y est, il saisit à peu près le champ sémantique et il va ensuite en raffiner le sens. Ça va très très vite.»
Pour un nouveau paradigme de l’IA, il faut donc regarder de nouveau dans notre boîte crânienne. Mais pas trop dans le détail, quand même. Il ne s’agit pas de rejouer la carte du biomimétisme qui a conduit l’Europe à financer en 2013 un projet pharaonique, Human Brain Project, censé aboutir en une décennie à la simulation du fonctionnement d’un cerveau humain grâce à un superordinateur (projet réorienté deux ans plus tard avec des objectifs plus raisonnables). Dans son article, Hassabis écrit : «Dans une perspective d’ingénierie, ce qui fonctionne est la seule chose qui compte. Dès lors, la plausibilité biologique est un guide, pas une exigence stricte. Ce qui nous intéresse, c’est la compréhension des systèmes du cerveau à un niveau neuroscientifique : les algorithmes, les architectures, les fonctions et les représentations qu’il utilise.» C’est aussi l’avis de Tenenbaum, pour qui la voie à suivre est de «faire de l’ingénierie inversée sur la façon dont fonctionnent le cerveau et l’esprit humain».
La formule de la cognition
Cette quête des algorithmes de la cognition n’en est bien sûr qu’à ses débuts. On est loin de pouvoir représenter dans une séquence d’instructions ce qui se passe dans notre caboche quand on hésite entre le fromage ou le dessert. Mais derrière cette idée d’ingénierie inversée, il y a l’espoir de ne pas avoir à décortiquer le fonctionnement précis des quelque 100 milliards de neurones reliés par 10 000 fois plus de synapses (en gros) pour se contenter de règles générales reproductibles. «Créer un modèle de traitement de l’information, c’est la manière qu’a notre cerveau de scientifique pour essayer de se comprendre lui-même,analyse Dehaene. L’évolution du cerveau a créé un système qui est capable d’internaliser, c’est-à-dire de faire des modèles internes et de développer des algorithmes biologiques, qui sont peut-être différents de ceux qu’on voit dans un ordinateur, mais des algorithmes tout de même. Et qui dit algorithme, dit capacité de le reproduire dans une machine d’une autre nature, en silicone, par exemple.» Certains gardent même l’espoir de se retrouver in fine face à une formule limpide de la cognition. Yoshua Bengio, un des pères du deep learning et chercheur à l’Université de Montréal, fait partie de ceux-là. Il a ainsi expliqué, lors d’une conférence en 2017 : «Je pense qu’il y a un petit nombre de principes clés, comme pour les lois de la physique, qui pourraient expliquer notre propre intelligence et nous aider à construire des machines intelligentes.» Et le scientifique de reprendre la métaphore aviaire : «Pensez à l’aérodynamique qui est suffisamment générale pour expliquer le vol des oiseaux et des avions. Ne serait-ce pas formidable de découvrir de tels principes simples et puissants en mesure d’expliquer l’intelligence même ?»
La première étape pour comprendre le fonctionnement du cerveau, c’est l’interprétation des données récoltées par son observation. Et, à ce petit jeu, difficile de trouver plus efficace que… l’intelligence artificielle. Demis Hassabis, toujours dans la revue Neuron : «Les algorithmes intelligents ont le potentiel de faire émerger de nouvelles idées sur les fondements de l’intelligence dans le cerveau des humains et des autres animaux.» Dans cette approche pour interpréter les signaux du ciboulot, l’une des applications les plus spectaculaires a été publiée fin décembre 2017 par l’équipe du laboratoire ATR de neurosciences computationnelles de Kyoto, dirigé par le chercheur Yukiyasu Kamitani. Elle a présenté une méthode pour reconstruire les images vues par un sujet à partir des enregistrements de l’activité cérébrale. Le résultat est encore loin d’être parfait (les images générées sont très approximatives), mais suffisamment proche de la réalité pour entrevoir la violation ultime de l’intimité de nos pensées.
«Ultra-Haut Débit»
Alexandre Gramfort a participé, en juillet, à la rédaction d’un article collectif intitulé : «Encoder et décoder les dynamiques neuronales : cadre méthodologique pour découvrir les algorithmes de la cognition». Chercheur en informatique de l’Inria travaillant à Neurospin, il détaille : «Ce qu’on appelle le "décodage", c’est prédire ce que la personne a vu à partir de la mesure de l’activité cérébrale. Par exemple, aujourd’hui, avec de la magnétoencéphalographie [qui mesure le champ magnétique à la surface de la boîte crânienne, ndlr], si je vous présente un visage ou une maison, juste en regardant les ondes cérébrales, je peux dire avec pratiquement 100 % de réussite si vous avez vu l’un ou l’autre.» Du coup, on peut appeler ça de la télépathie, non ? Il rigole : «Aujourd’hui, le système d’apprentissage est capable de prédire correctement s’il a été entraîné à partir des données du même patient. Sur un autre individu, les performances chutent beaucoup. Ce n’est pas demain la veille qu’on pourra savoir ce que pense quelqu’un en lui mettant trois électrodes sur la tête.» Mais le scientifique n’exclut pas de se faire surprendre : «Aujourd’hui, en dehors d’un labo, on ne peut pas espérer décoder sérieusement quoi que ce soit. Après, où en sont les projets secrets de Musk avec Neuralink ou Facebook dans ce domaine ? On n’en sait rien, et c’est peut-être plus flippant.»
Car, sur ce sujet comme sur d’autres, la Silicon Valley n’est jamais bien loin de la science-fiction. Elon Musk, le très influent fondateur de Tesla et SpaceX (oui, celui-là même qui a peur des progrès de l’IA), a en effet créé en 2016 Neuralink, une start-up travaillant sur une interface «ultra-haut débit» entre un cerveau et un ordinateur. De son côté, Facebook a annoncé, début 2017, travailler sur un système capable de taper cent mots par minute directement depuis son cerveau. Cinq fois plus vite qu’avec les doigts. La représentante de Facebook avait à l’époque affirmé : «Ça semble impossible, mais c’est plus proche que ce que vous pouvez penser.» C’était il y a près de deux ans. Depuis, aucune nouvelle. A croire que si effectivement rien n’est impossible, rien n’est bien proche non plus.
Aucun commentaire:
Enregistrer un commentaire