mercredi 1 mars 2023

« L’intelligence artificielle est en train de connaître son “moment iPhone” et va bouleverser la société comme le fit Apple en 2007 »

Arnaud Leparmentier  New York, correspondant

Publié le 28 février 2023

Loin d’ironiser sur les bévues de ChatGPT ou de Bard, Wall Street a compris qu’une révolution était en train de se jouer, observe Arnaud Leparmentier, correspondant du « Monde » à New York, dans sa chronique.

Lorsque OpenAI a présenté son robot d’intelligence artificielle, ChatGPT3, le 30 novembre 2022, la valeur de Microsoft, l’un des principaux investisseurs de cette entreprise d’intelligence artificielle (IA), a bondi de 115 milliards de dollars (108 milliards d’euros), environ 6,5 %. Cette performance n’a pas empêché le ministre chargé de la transition numérique et des télécommunications français, Jean-Noël Barrot, d’estimer que cet outil révolutionnaire n’était qu’un « perroquet approximatif », sous prétexte que le tissu de connaissances qui nourrit ChatGPT était arrêté en 2021.

Le géant Google a lui perçu la menace et s’est empressé de présenter, le 8 février, son propre moteur d’IA, Bard. Las, celui-ci s’est trompé, attribuant au télescope spatial James-Webb la première photographie d’une planète hors du Système solaire. Sanction immédiate, Google a perdu 100 milliards de capitalisation boursière, soit 9 % de sa valeur. 100 milliards l’erreur, un peu cher pour un perroquet !

Car Wall Street a compris qu’une révolution se jouait : l’IA est en train de connaître son « moment iPhone » et va bouleverser la société comme le fit Apple en 2007. Depuis des mois, Wall Street ne voulait pourtant plus entendre parler des Big Tech : les Amazon, Tesla, Alphabet, Microsoft, Meta… avaient leurs beaux jours derrière eux. Retournement de tendance, les moteurs d’IA vont nécessiter des milliards de dollars d’investissements et ce sont les géants qui auront les moyens de les développer.

C’est aussi ce qu’expliquent, dans une tribune publiée dans le Wall Street JournalEric Schmidt, ancien patron de Google, Henry Kissinger, ancien secrétaire d’Etat de Richard Nixon et Daniel Huttenlocher, doyen de l’école d’informatique du Massachusetts Institute of Technology. Selon eux, le marché devrait être constitué de quelques grands modèles d’IA –coûtant plus de un milliard de dollars et opéré par des milliers d’ordinateurs – et les entreprises souscriraient des abonnements. Logiquement, « la conception et le contrôle de ces modèles seront très concentrés », écrivent les auteurs, qui prédisent qu’en raison de leur « coût énorme » « les machines les plus efficaces pourraient rester entre les mains d’un petit sous-groupe au niveau national et sous le contrôle de quelques superpuissances au niveau international ». Vous avez aimé les GAFA, vous adorerez l’IA, lieu de l’affrontement civilisationnel entre la Chine et les Etats-Unis.

Emergence d’une mystique pro-IA

Au lieu de ricaner sur les quelques erreurs de jeunesse de ChatGPT, MM. Schmidt, Kissinger et Huttenlocher se posent les vraies questions. Ils décrivent une « révolution intellectuelle » et un « défi philosophique et pratique » sans précédent depuis l’invention de l’imprimerie par Gutenberg. Cette dernière avait permis l’éclosion de la méthode scientifique moderne, faite de partage d’expériences reproductibles. Rien de tel avec l’IA qui produit un résultat non sourcé à partir des milliards de données non vérifiées accumulées sur la planète. « La science des Lumières accumulait des certitudes. La nouvelle intelligence artificielle génère des ambiguïtés cumulatives », écrivent les auteurs.

D’où vient la réponse de l’IA ? Nul ne le sait, mais c’est elle qui devrait finir par s’imposer : « La perfection apparente des réponses du modèle produira un excès de confiance dans ses résultats », s’inquiètent les auteurs, qui se demandent : « A quel moment les médecins ne se sentiront-ils plus à l’aise pour remettre en question les réponses que leur logiciel leur donne ? »

Toute la société sera concernée. « L’intelligence artificielle infusera la diplomatie et la stratégie de sécurité », affirment-ils. Et s’interrogent : « Pourrons-nous apprendre à questionner plutôt qu’à obéir ? Ou serons-nous finalement obligés de nous soumettre ? Et si un élément de malveillance émergeait dans l’IA ?  » Les auteurs craignent même l’émergence d’une mystique pro-IA susceptible de subjuguer les masses comme les totalitarismes du XXe siècle : « Une troisième manière de connaître le monde peut émerger, celle qui n’est ni la raison humaine ni la foi. Que devient la démocratie dans un tel monde ? » Trop de questions sans doute pour un perroquet.


Aucun commentaire:

Enregistrer un commentaire