MIT TECHNOLOGY REVIEW (CAMBRIDGE (MASSACHUSETTS))
Des agences spatiales et des entreprises planchent sur le développement d’une intelligence artificielle capable d’identifier les émotions des astronautes et d’y répondre avec empathie. L’objectif : améliorer les longues missions d’exploration spatiale à venir.
Les astronautes font partie des individus les plus en forme du monde, physiquement et psychiquement. Ils sont entraînés à rester calmes même en cas de danger de mort et peuvent travailler avec une extrême concentration pendant de longues périodes.
Néanmoins, vivre, travailler et dormir dans un espace confiné avec les mêmes personnes pendant des mois ou des années serait stressant même pour la plus solide des recrues. Les astronautes doivent également gérer les contraintes physiques propres au séjour dans l’espace – entre autres la microgravité, qui grignote les masses osseuse et musculaire, provoque un déplacement de fluides infligeant une pression douloureuse sur la tête et les autres extrémités du corps et affaiblit le système immunitaire.
Un assistant doté d’une intelligence artificielle (IA) capable de percevoir les émotions humaines et de réagir avec empathie, voilà peut-être la solution, en particulier pour les futures missions vers Mars et au-delà. Il pourrait anticiper les besoins de l’équipage et intervenir si sa santé mentale semblait en péril.
La notion d’IA dans l’espace a beau posséder des connotations malheureuses à cause de Stanley Kubrick et de HAL 9 000 [l’ordinateur central dans le film 2001 : l’odyssée de l’espace, CAL dans la version française], la Nasa travaille déjà avec diverses sortes d’assistants virtuels. Les habitants de la Station spatiale internationale (ISS) ont récemment reçu une nouvelle version de Cimon (acronyme de Crew interactive mobile companion, “Compagnon interactif mobile de l’équipage”), un robot de la taille d’un medicine ball mis au point par IBM [ainsi qu’Airbus et l’agence spatiale allemande] capable de percevoir les émotions et d’y réagir, qui les assistera dans leurs diverses tâches et expériences pendant trois ans. (Les résultats sont mitigés pour le moment.)
Piloter le vaisseau et comprendre l’homme en même temps
Les robots actuels manquent d’intelligence émotionnelle, explique Tom Soderstrom, le directeur technique du Jet Propulsion Laboratory (JPL) de la Nasa. Le JPL travaille donc actuellement avec la société australienne Akin à la mise au point d’une IA susceptible d’apporter un jour un soutien émotionnel aux astronautes en mission dans l’espace lointain. “C’est ce qui m’excite le plus avec Akin, confie Tom Soderstrom. On veut un assistant intelligent capable de contrôler la température et la direction du vaisseau, de régler n’importe quel problème technique mais aussi de tenir compte du comportement humain.”
Le système devra non seulement effectuer des tâches et lancer des alertes comme Alexa ou Siri, mais aussi se comporter comme un compagnon et apporter un soutien empathique, explique Liesl Yearsley, la PDG d’Akin.
Imaginez un robot capable de penser ‘Mary ne va pas très bien aujourd’hui, j’ai remarqué qu’elle était un peu sèche avec ses collègues’.
“Il pourrait décider qu’il serait prudent de mettre Mary en tête de son programme de la journée et de s’efforcer de la réconforter et de l’encourager pour atténuer une partie de son stress. Voilà le genre de couches profondes qu’on souhaite pouvoir traiter”, dévoile la PDG.
La Nasa n’a pas vraiment de mal à suivre la santé mentale et émotionnelle d’un équipage de nos jours. Les personnes embarquées à bord de l’ISS parlent régulièrement à des psychiatres qui les écoutent depuis la Terre. Des médecins sont disponibles à tout moment pour répondre à tout signe de détresse grave. Si ceci est possible, c’est en grande partie parce que la station est en orbite basse, et donc aisément accessible depuis la salle de contrôle.
Dans l’espace lointain, on a un décalage entre les communications qui peut se compter en heures. Les petits organismes ou les sociétés privées n’auront peut-être pas de spécialistes en santé mentale de permanence pour les urgences. Avoir une IA capable d’identifier les émotions à bord sera peut-être mieux indiqué pour repérer les problèmes et les trier dès leur apparition.
Des rovers à fabriquer soi-même
Le partenariat entre le JPL et Akin fait appel à Open Source Rover, un projet qui met à la disposition du public la conception de base des véhicules d’exploration [aussi appelés “astromobiles”] envoyés sur Mars, Curiosity entre autres. Étudiants et jeunes ingénieurs intéressés peuvent se construire leur propre rover à six roues pour environ 2 500 dollars [environ 2 200 euros].
Liesl Yearsley et Tom Soderstrom ont fait appel à Open Source Rover pour développer et tester l’IA d’Akin au cours de l’année dernière. Le résultat est un prototype d’astromobile baptisé “Henry the Helper” [Henri l’Aidant] qui se promène actuellement sur le site du JPL. Il discute avec les employés et les visiteurs et démontre sa capacité à interagir avec des êtres humains et à reconnaître leurs émotions.
Comme nombre d’autres systèmes d’IA, Henry reconnaît, grâce à l’apprentissage profond (ou deep learning), les schémas qui apparaissent dans le discours et dans les expressions du visage et qui sont liés à un contenu émotionnel. Il est ensuite programmé pour y réagir de façon appropriée, empathique – il indique par exemple le chemin aux touristes qui semblent perdus ou perplexes.
Akin sortira deux autres prototypes cette année : Eva the Explorer [Eva l’Exploratrice] et Anna the Assistant [Anna l’Assistante]. Eva est essentiellement un Henry plus autonome. Dotée d’un plus grand nombre de capteurs, elle pourra repérer des signes plus subtils dans le discours et dans l’expression du visage lors de conversations plus complexes. Anna sera une sorte d’assistant de laboratoire autonome : elle anticipera les besoins des employés du JPL – prendra des notes, répondra à des questions, passera des objets et des outils et résoudra des problèmes.
Monter à bord de Gateway pour aller sur la Lune
Et dans quelques années, Akin espère voir naître Fiona the Future. Fiona ne sera pas nécessairement un robot mais plutôt un système multiplateforme qui fonctionnera sur un vaisseau spatial comme Gateway (la future station lunaire de la Nasa) ou un habitat sur la Lune ou sur Mars. Il n’y a pas encore d’engagement pour son intégration au programme Artemis [la prochaine mission américaine habitée qui se posera sur la Lune] ou à Gateway, mais la société travaille activement avec d’autres acteurs de l’aérospatiale pour signer une initiative quelconque.
Si elle veut espérer faire monter Fiona à bord de Gateway ou lui faire prendre part à Artemis, Akin doit disposer de prototypes fiables d’ici à septembre, explique Liesl Yearsley. Sinon, elle verra si elle ne peut pas tester ce système dans un environnement isolé, l’Antarctique par exemple, ou alors dans d’autres contextes comme l’aide aux personnes âgées ou handicapées.
Pour fonctionner dans l’espace, le système fera appel à l’informatique en périphérie [ou edge computing, une architecture informatique qui permet d’optimiser la gestion des données] : les calculs et le stockage des données ne se feront pas dans de grands centres mais localement et en recourant à la mise en cache, ce qui réduit considérablement l’empreinte énergétique.
Les plus grands obstacles auxquels est confronté Akin sont ceux qui caractérisent tout le domaine de l’IA émotionnelle. Lisa Feldman Barrett, une psychologue de l’université Northeastern [aux États-Unis] spécialisée dans les émotions humaines, a jadis fait remarquer que la façon dont l’IA était entraînée à reconnaître les émotions humaines était profondément erronée. “Les systèmes ne reconnaissent pas les significations psychologiques, explique-t-elle.
Ils reconnaissent des mouvements et des changements physiques dont ils déduisent une signification psychologique.”
Ce n’est assurément pas la même chose.
Un vaisseau spatial pourrait cependant constituer un environnement idéal pour former et faire travailler un système à l’intelligence émotionnelle. Comme il n’interagira qu’avec le petit groupe de personnes présentes à bord, il pourra apprendre “le vocabulaire d’expressions du visage” de chaque individu, comment chaque expression se traduit sur le visage, dans le corps et la voix et finira peut-être par en comprendre les variations, explique la psychologue. “Le problème est peut-être plus abordable quand on s’y essaie dans un environnement clos, avec un ou quelques individus, que dans un environnement ouvert”, suppose-t-elle.
Aucun commentaire:
Enregistrer un commentaire