Les spécialistes de l’IA eux-mêmes commencent à reconnaître les limites des promesses « vendues » à une opinion publique gourmande d’utopies technologiques, rappelle l’experte Claire Gerardin dans une tribune au « Monde ».
Tribune. Yann LeCun, chercheur en intelligence et vision artificielles à l’Université de New York et directeur de Facebook Artificial Intelligence Research (FAIR), est l’un des pionniers de l’intelligence artificielle (IA) grâce à son rôle majeur dans le développement des technologies de l’apprentissage profond (« deep learning »). C’est à ce titre qu’il a reçu, le 27 mars, avec Yoshua Bengio et Geoffrey Hinton, le prix Turing – un « Nobel de l’informatique ».
Pourtant, Yann LeCun affirme volontiers que les ambitions en matière derecherche en intelligence artificielle ont toujours été extravagantes. La complexité de la modélisation du cerveau humain pour reproduire son fonctionnement – ce qui est l’objectif originel de l’intelligence artificielle – a toujours été sous-estimée, et les progrès des recherches sont moins importants que ceux auxquels on s’attendait. Pour ce chercheur, il faut délaisser la course à la performance technologique pour se recentrer sur les sujets fondamentaux que sont l’intelligence, le sens commun, ou encore l’apprentissage (« Y a-t-il un cerveau dans la machine ? », « La Méthode scientifique » – Nicolas Martin, France Culture, 30 août 2017).
La majorité des applications dont on dit qu’elles utilisent l’IA – la traduction, le diagnostic médical, la voiture autonome – utilisent en fait l’apprentissage profond, sa composante principale et quasi unique. Aujourd’hui, tous les assistants vocaux virtuels suivent des scripts préécrits par des humains en fonction de la reconnaissance de mots, ce qui confère à l’IA une compréhension encore très superficielle du sens de la parole.
Reconnaissance et connaissance
Pour entraîner cet apprentissage profond et écrire ces scripts, le sociologue Antonio Casilli, auteur d’En attendant les robots (Seuil, 400 p., 24 €), rappelle qu’il y a toujours un humain derrière la machine. En effet, pour exercer les ordinateurs à reconnaître des objets dans des images, les détourer, nettoyer les algorithmes imparfaits, ranger des bases de données, corriger des erreurs typographiques, transcrire des contenus audio, noter des sites Web, modérer les contenus, etc., les acteurs des nouvelles technologies recrutent des opérateurs humains. Ils le font sur des plates-formes de microtâches qui emploient des microtravailleurs, comme Mechanical Turk, UHRS (Universal Human Relevance System), EWOQ, Mighty AI, Crowdflower, Prolific, etc. L’ONU a publié une étude afin d’appeler à une régulation de cette économie parallèle qui touche tous les pays, développés comme en voie de développement (« Digital labour platforms and the future of work », International Labour Office, 2018).
Peut-on aller jusqu’à dire que L’intelligence artificielle n’existe pas, comme l’affirme le titre du livre de Luc Julia (First 200 p., 17,95 €), vice-président mondial de l’innovation de Samsung. Selon lui, pour créer une IA, il faudrait déjà pouvoir comprendre l’intelligence humaine. Et cela ne serait possible que grâce à une maîtrise scientifique et interdisciplinaire (mathématiques, statistiques, biologie, chimie, physique). Si aujourd’hui le deep learning représente une très grande avancée technologique, on ne peut pas le qualifier d’IA. Car il s’agit de reconnaissance d’images et de mots, et non de connaissance. Et cette reconnaissance demande encore beaucoup d’entraînement des ordinateurs. Par exemple, pour reconnaître un chat dans une image avec un taux de succès de 98 %, il faut à un ordinateur une base de données contenant 100 000 photos de chats, alors qu’un enfant a besoin de deux exemples de photos pour y parvenir sans erreur.
Récits technologiques
Ces entraînements représentent tellement d’investissements que le groupe PSA vient d’annoncer l’abandon de ses projets de développement de conduite autonome au-delà du niveau 3 pour ses véhicules particuliers. John Krafcik, le PDG de Waymo, filiale de Google en charge de concevoir la Google Car, affirme qu’il faudra encore des dizaines d’années avant que l’on puisse voir des véhicules autonomes de niveau 4 ou 5 sur les routes, et, dans tous les cas, elles devront avoir un conducteur à bord.
Alors, pourquoi l’IA connaît-elle un tel succès dans les médias, et un tel engouement dans l’opinion ? C’est l’une des questions à laquelle Jean-Gabriel Ganascia, informaticien et philosophe, tente de répondre dans son livre Le Mythe de la singularité (Seuil, 2017). Il y explique pourquoi l’hypothèse selon laquelle l’invention de l’IA déclencherait un emballement de la croissance technologique qui induirait des changements imprévisibles sur la société humaine, qu’il appelle le mythe de la singularité – s’est largement imposé ces dernières années. L’une des raisons serait que les systèmes de financement de la recherche privilégient les projets capables de susciter de grandes espérances. Leurs concepteurs n’hésitent alors pas à faire la promotion de leurs innovations avec des arguments exaltés.
Dans un contexte de concurrence intense, les entreprises essaient aussi de se démarquer en portant des ambitions exagérées, du genre de celles qui visent à « changer le monde ». Pour garder le contrôle de marchés où les exigences des clients évoluent en permanence, il ne reste aux entreprises du numérique que la fabrication et la promotion des récits qui accompagnent les technologies. Elles usent en particulier de deux d’entre eux : le récit de l’inéluctabilité, selon lequel les technologies seraient autonomes et se développeraient elles-mêmes ; et la promesse d’éthique, selon laquelle il s’agirait de faire en sorte qu’elles ne nuisent pas aux humains.
Aucun commentaire:
Enregistrer un commentaire