Par Alexandre Piquard Publié le 25 mai 2023
Le géant du logiciel Microsoft a annoncé des solutions dans ce sens, et le ministre de l’économie, Bruno Le Maire, a évoqué la question lors de sa rencontre avec Sam Altman, le PDG d’OpenAI, le créateur de ChatGPT.
Faut-il se résoudre à un monde où il est impossible de discerner les contenus générés par des intelligences artificielles (IA) de ceux produits par des humains ? La question est chaque jour plus brûlante : les textes bluffants prolifèrent depuis le lancement, en novembre 2022, du robot conversationnel ChatGPT, et les photos trompeuses comme celle du pape en doudoune blanche sont appelées à se multiplier avec l’essor de logiciels comme Midjourney.
En réaction, certains cherchent des moyens de rendre détectables ces contenus synthétiques. Le défi est complexe, mais d’actualité : mardi 23 mai, le géant du logiciel Microsoft a annoncé des solutions dans ce sens et le ministre de l’économie français, Bruno Le Maire, a évoqué la question à Paris avec Sam Altman, le PDG d’OpenAI, le créateur de ChatGPT.
« [Rendre détectables les contenus créés avec l’IA] aiderait à lutter contre la triche à l’université, ou contre la génération massive de propagande et de désinformation dans le but, par exemple, d’inonder des blogs de commentaires favorables à l’invasion de l’Ukraine », a argumenté, dans une conférence, en novembre 2022, Scott Aaronson, le chercheur chargé de travailler sur cette question chez OpenAI.