jeudi 8 décembre 2022

Intelligence artificielle OpenAI, entre l’artifice et la vertu

par Amaelle Guiton  publié le 7 décembre 2022

Cofondé par Elon Musk fin 2015, passé du modèle non lucratif au «but lucratif plafonné», le centre de recherche en intelligence artificielle s’est imposé comme un acteur majeur du secteur, en faisant évoluer quelques-uns de ses fondamentaux.

C’était en décembre 2015, dans un monde d’avant Donald Trump à la Maison Blanche, dans une vie antérieure pourrait-on dire. Elon Musk, puissant PDG de Tesla et SpaceX, pas encore revêtu des oripeaux du chef twitto troll (très) à droite toute, vendait encore du rêve – du moins à ceux pour qui coloniser Mars relève de cette catégorie – et cofondait un nouveau projet qui faisait phosphorer dans la Silicon Valley et au-delà : OpenAI. Soit un centre privé de recherche en intelligence artificielle, à but non lucratif, missionné pour faire en sorte que, dans un avenir plus ou moins lointain, une IA dite «générale», c’est-à-dire capable, peu ou prou, de comprendre et d’apprendre comme un humain, «bénéficie à toute l’humanit黫Je pense que la meilleure défense contre une mauvaise utilisation de l’IA, c’est de donner le pouvoir de l’utiliser à un maximum de gens», déclarait Musk au journaliste américain Steven Levy, brassant dans un même élan l’angoisse dystopique – Skynet, l’IA toute-puissante de Terminator, n’est jamais très loin – et le concentré d’idéologie «tech» californienne.

Sept ans plus tard, Musk a quitté (depuis février 2018) le conseil d’administration d’OpenAI, mais l’autre initiateur de l’aventure, Sam Altman, ex-président de l’incubateur de start-up Y Combinator (qui a financé, entre autres, Airbnb et DropBox), en est resté le patron. Toujours installé à San Francisco dans le quartier latino-branché de Mission, OpenAI n’est plus seulement un organisme à but non lucratif, mais aussi, depuis 2019, une entreprise à but lucratif dit «plafonné», la seconde étant contrôlée par le premier. En sept ans, la société californienne est devenue un acteur incontournable de la recherche en intelligence artificielle. ChatGPT, l’application de conversation qui fait fureur depuis huit jours, c’est elle ; Dall-E, le modèle capable de générer des images bluffantes à partir de commandes en langage naturel, c’est encore elle. Il y a trois ans et demi, OpenAI s’était aussi fait remarquer lorsque son équipe de cinq «bots» (robots) avait réussi, à force d’entraînement, à battre les champions du monde en titre du jeu vidéo Dota 2, une «arène de bataille» en ligne.

Attirer les investisseurs

En sept ans, le projet a aussi vu ses fondamentaux évoluer sensiblement. Fin 2015, OpenAI en version originelle avait été abondé, à hauteur d’un milliard de dollars, par un petit groupe d’investisseurs comprenant Sam Altman et Elon Musk eux-mêmes, mais aussi le furieusement libertarien Peter Thiel, cofondateur de PayPal, et Amazon Web Services, la branche «cloud» du géant du commerce en ligne. Avec la promesse d’une transparence à tous les étages : «Les chercheurs seront fortement encouragés à publier leur travail, et nos brevets (s’il y en a) seront partagés avec le monde entier», assurait la déclaration d’intention. En 2019, l’entreprise commerciale nouvellement créée – pour attirer les investisseurs et mettre en place un intéressement des salariés aux bénéfices – a reçu un autre milliard, de Microsoft cette fois. L’année suivante, le géant de Redmond (Etat du Washington) a obtenu la licence exclusive de GPT-3 (pour Generative Pre-trained Transformer, soit «transformateur génératif pré-entraîné»), le modèle de langage au fondement des performances de ChatGPT.

L’objectif de développer de «bonnes» IA n’a, lui, manifestement pas disparu. Les chercheurs expliquent avoir «fait tout leur possible pour que [ChatGPT] refuse les requêtes inappropriées» en bloquant «certains types de contenus dangereux» – traîne encore dans les mémoires l’expérience malheureuse, il y a six ans, de Tay, l’IA conversationnelle de Microsoft, qui multipliait les diatribes haineuses et racistes moins de vingt-quatre heures après sa mise en fonction… En 2019, l’équipe d’OpenAI avait aussi décidé, dans un premier temps, de ne rendre publique qu’une version très allégée de GPT-2, le prédécesseur de GPT-3, avançant le risque que le modèle serve à générer des discours «trompeurs, biaisés ou injurieux à grande échelle».

Des volumes de données «inauditables»

Des préoccupations suffisantes pour éviter les sorties de route ? Malgré les efforts, ChatGPT «répondra parfois à des instructions malfaisantes ou affichera un comportement biaisé», avertissent ses concepteurs. Difficile en effet d’en maîtriser parfaitement la conduite… «Il y a des opacités qui ne sont pas tant liées à des enjeux techniques qu’à des enjeux de volumétrie, souligne Olivier Ertzscheid, enseignant-chercheur en sciences de l’information et de la communication à l’université de Nantes et auteur du Monde selon Zuckerberg (1). Les volumes de données brassées par ces technologies d’intelligence artificielle deviennent “inauditables” [impossibles à vérifier], y compris par les ingénieurs qui les développent.»

D’après Elon Musk lui-même, OpenAI avait notamment, jusqu’à récemment, «accès à la base de données de Twitter pour l’entraînement» de son modèle de langage, accès que le nouveau propriétaire du réseau social indique avoir «suspendu». Et de tacler : «OpenAI a été lancé comme projet open source et à but non lucratif. Aucun de ces qualificatifs n’est encore vrai.» Toute nostalgie bue, il n’est au demeurant pas impossible que le partenariat privilégié, depuis trois ans, entre l’entreprise d’intelligence artificielle et Microsoft pèse dans cette prise de distance affichée de l’un de ses pères fondateurs.

(1) Ed. C&F, 2020,


Aucun commentaire:

Enregistrer un commentaire