On parle de plus en plus d’une nouvelle technique d’intelligence artificielle (IA), le deep learning, qui ferait des miracles en matière de reconnaissance et classification de données. En 2012,Google créa l’événement en utilisant cette série d’algorithmes pour reconnaître des chats sur les images (activité principale des internautes, comme chacun sait), avec un taux de succès de 70 % supérieur aux méthodes concurrentes. Depuis, le deep learning est employé, entre autres, par Microsoft (afin de permettre une traduction en temps réel des conversations Skype) ou encore Facebook, qui a engagé récemment l’un des plus grands spécialistes du domaine, le françaisYann LeCun. Dans un récent article, Wired fait le point sur les succès de cette technologie, mais pointe surtout un aspect peu connu et particulièrement intéressant : non, pas besoin d’être un GAFA, un des géants du net disposant des milliers de machines pour faire du deep learning !
Un réseau de neurones sophistiqué
Mais c’est quoi, le deep learning ? LaWikipedia (anglo-saxonne, il n’existe pas d’entrée sur le sujet en français) commence l’article consacré au sujet ainsi : “Le deep learning est un ensemble d’algorithmes de machine learning cherchant à modéliser des abstractions de haut niveau au sein des données en utilisant des architectures de modèles composés de multiples transformations non linéaires.”
Comment peut-on être plus clair ?
Une meilleure (et surtout plus simple !) explication du deep learning se trouve dans un article duNew Yorker écrit en 2012 par le psychologue Gary Marcus, qui écrit souvent sur ces sujets pour le magazine.
A l’origine, il y avait les “réseaux de neurones”, des programmes qui cherchaient à modéliser le cerveau en recourant à des neurones formels, qui étaient susceptibles de s’activer en fonction des inputs qu’ils recevaient de leurs congénères. Marcus en raconte l’histoire, faite, comme souvent dans ce domaine, de hauts et de bas. Le premier type de réseau de neurones, leperceptron, a été créé en 1957. Le perceptron avait des défauts de conception graves, ainsi que le prouva, en 1969, Marvin Minsky, ponte bien connu de l’IA. Par exemple, il n’était pas capable d’effectuer un OU exclusif (fromage OU dessert). Le principal défaut du perceptron est qu’il était grosso modo constitué de seulement deux couches de neurones, les capteurs, qui recevaient des informations du monde extérieur, et des “neurones de décision” activés par la première couche.