Par la voix de scientifiques, de philosophes ou de grands noms de la Silicon Valley, la question de la place de l’éthique dans le développement de l’IA s’invite de plus en plus dans le débat public.
« Nous ne concevrons ni ne déploierons d’intelligence artificielle [IA] dans des technologies qui sont globalement nocives, ou qui présentent des risques de l’être. » Ce serment éthique est tiré des « principes » publiés en juin par Google sur l’intelligence artificielle. L’IA, ce vaste ensemble de techniques visant à faire accomplir par des logiciels des tâches pour lesquelles l’homme utilise son intelligence : trier des informations, conduire une voiture, émettre une recommandation…
Cette profession de foi inhabituelle a été élaborée en réponse à une fronde interne à Google : des employés demandaient l’arrêt de la participation au projet militaire Maven, dans le cadre duquel l’entreprise aidait l’armée américaine à analyser des images de drone.
Cet épisode est la dernière des sorties médiatiques qui ont poussé le thème de l’éthique sur l’avant-scène de l’intelligence artificielle. Des figures comme Elon Musk, le patron du constructeur automobile Tesla, ou Stephen Hawking, l’astrophysicien britannique mort en mars, ont utilisé leur aura pour alerter sur la menace de voir l’IA supplanter les humains, ou pour réclamer, dans une lettre ouverte, l’interdiction des « armes autonomes », surnommées « robots tueurs ».