lundi 1 avril 2019

« Alexa, passe-moi le sel ! » : comment les enceintes connectées s’incrustent peu à peu dans nos foyers

Par Nicolas Santolaria   Publié le 29 mars 2019 



Aujourd’hui, une enceinte connectée peut vous raconter une blague ou vous rappeler d’aller chercher vos ­enfants à l’école. Esclaves ou confidents, ces objets sont loin d’être neutres sur nos comportements.
Il y a à peine une décennie, l’idée de dialoguer avec nos objets du quotidien relevait encore de la science-fiction. Vous pouviez éventuellement balancer quelques noms d’oiseaux à votre ­imprimante dysfonctionnelle, mais elle ne vous répondait pas. Aujourd’hui, comme si vous viviez dans un épisode de la série Black Mirror, une enceinte connectée pourra très bien vous raconter une blague comme « Monsieur et madame Chette ont une fille… » – oui, c’est ça : « Barbie » – ou vous rappeler d’aller chercher vos ­enfants à l’école.
Photomontage à partir de «  Homemaker serving dinner », d’Ewin Galloway
Photomontage à partir de «  Homemaker serving dinner », d’Ewin Galloway EWING GALLOWAY / ALAMY / HEMIS
Inspirés par l’ordinateur de bord de la série Star Trek, les premiers modèles de ces smart speakers (« enceintes ­intelligentes ») ont été lancés par Amazon en 2014 aux Etats-Unis, avant d’arriver en France en juin 2018. Destinés à prendre place dans l’intimité des foyers, ces ­ totems domestiques aux allures de baffles design renferment des intelligences artificielles qui répondent à des noms plus ou moins chatoyants : Alexa (Amazon), Google Assistant (Microsoft), Siri (Apple), Djingo (Orange)… « Les technologies vocales s’inscrivent dans un mouvement d’évolution des interfaces. On est passé par le clavier et la souris, puis le toucher, mais, quand on y réfléchit bien, l’interaction la plus logique, la plus naturelle, est vocale. On est câblé pour apprendre le langage depuis la naissance. Avec la voix, il n’y a pas de gap générationnel : tout le monde peut s’en servir », explique Nicolas Maynard, responsable France pour Alexa.

Un couteau suisse numérique

Alors qu’il fallait frotter la lampe pour convoquer le génie des contes, c’est en prononçant un mot de passe que l’on réveille aujourd’hui le génie de l’enceinte. Pour sortir Google Assistant de sa torpeur, il faudra donc énoncer à chaque fois la formule d’activation « OK Google », ce qui donne le sentiment insupportable de répéter un mantra à la gloire des ­Gafam. Quant à Alexa, il suffit de dire « Alexa ». Un rond luminescent signale alors que l’enceinte passe en écoute ­active. Selon une récente étude de Médiamétrie, l’Hexagone compterait plus de 1,7 million d’utilisateurs de cette technologie aux allures de couteau suisse numérique, dont la promesse fonctionnelle évolutive est aussi vaste que brumeuse.
Pour l’heure, ces enceintes, que les constructeurs voient comme l’outil consumériste ultime susceptible de transformer votre salon en vaste supermarché, sont prioritairement utilisées pour écouter de la musique, obtenir la météo du jour, se connecter à la radio en direct et effectuer des recherches sur Internet.
« La dame, elle est fâchée », répète mon fils de 4 ans lorsque, pour une raison indéterminée, l’assistante ne répond pas.
Quant à moi, lorsque je ne lui demande pas l’heure, je me sers de « mon » Alexa pour tenter de sortir du placard de vieilles madeleines musicales, sans toujours y parvenir. « Alexa, mets la chanson Rock Amadour, de Gérard Blanchard », ai-je un jour susurré à ma douce assistante, qui s’exprime avec une voix de femme au timbre légèrement robotique (Google Assistant possède quant à lui huit voix optionnelles, aussi bien masculines que féminines). « J’en apprends chaque jour un peu plus sur les girafes… Si vous voulez, vous pouvez me demander des anecdotes sur les girafes », m’a alors répondu Alexa, comme si elle avait sombré en plein délire pataphysique.
C’est donc moins en raison de son esprit d’à-propos que grâce à sa capacité Barnum à faire des prouts et à reproduire le rugissement du lion que ce cylindre sombre a obtenu chez moi un statut particulier dans la hiérarchie des objets, trois crans au-dessus du grille-pain. « La dame, elle est fâchée », répète d’ailleurs mon fils de 4 ans lorsque, pour une raison indéterminée, l’assistante ne répond pas.

Un nouveau membre de la famille

Ce sentiment tenace que l’objet renferme une subjectivité ne s’explique pas uniquement par la charmante naïveté de l’enfance. Comme l’écrit le spécialiste de la communication Clifford Nass dans son ouvrage Wired for Speech. How Voice Activates and Advances the Human- Computer Relationship(MIT Press, 2005), le cerveau humain fait « rarement la différence entre le fait de parler à une machine – même ces machines avec une très faible compréhension et un langage de mauvaise qualité – et à une personne ».
A partir du moment où il est susceptible de ­tenir un embryon de conversation, cet agglomérat de composants électroniques se trouve de fait intégré au champ complexe des interactions sociales. « Beaucoup d’utilisateurs nous disent que leur enceinte connectée est devenue un nouveau membre de la famille », se ­réjouit Nicolas Maynard, d’Amazon.
A cela s’ajoute une tendance ­consistant à projeter inconsciemment sur les logiciels de dialogue des caractéristiques humaines, inclination anthropomorphique connue sous le nom d’effet Eliza. Plutôt que de se tenir à distance de cette pente savonneuse, les constructeurs s’y sont vaillamment adossés, ajoutant à leurs enceintes un ensemble de traits de caractère schématiques, de nature à encourager notre investissement émotionnel et, par là même, une certaine confusion.
« Je pense que si vous parlez à quelque chose et que ce quelque chose vous répond comme le ferait un être humain, vous commencez inévitablement à lui imaginer une personnalité. Si vous lui demandez “Est-ce que tu as une famille ?”, “Est-ce que tu m’aimes ?”, “Quelle est ta couleur préférée ?”, la machine doit être en capacité de répondre, sinon elle sera considérée comme froide », explique Emma Coats, responsable de la personnalité de Google Assistant au ­niveau mondial.
« Comme dans les films Pixar, où vous pouvez avoir une connexion émotionnelle avec une voiture ou un poisson, on doit inventer un personnage qui semble réel. » Emma Coats, créatrice de la personnalité de l’Assistant Google
Ancienne de chez Pixar, Emma Coats a adapté aux enceintes connectées les recettes du fameux studio d’animation, dont les films ont cette particularité de s’adresser à tous les publics, en proposant différents niveaux de lecture. Une sorte d’universalité médiane, à tiroirs, dont la fonction est de réussir à produire un sentiment d’intimité de masse. « Comme dans les films Pixar, où vous pouvez avoir une connexion émotionnelle très forte avec une voiture ou un poisson, on doit inventer un personnage qui n’a jamais existé auparavant mais qui semble réel, poursuit Emma Coats. Vous devez avoir le sentiment d’avoir affaire à un compagnon marrant, serviable et accessible. »

Humour, disponibilité, empathie

Même si la relation est interactive, en réalité la « personnalité » des ­assistants est toujours un peu la même, reposant sur des piliers immuables : ­humour, disponibilité, empathie. Pour que ce sentiment de proximité soit crédible, l’assistant doit maîtriser la culture du pays où il est déployé. Mais comment paraître français sans avoir la possibilité ni d’enfiler une marinière, ni de se coller une baguette sous le bras ? Réponse : en partageant un patrimoine culturel commun.
« Quand Alexa était encore en phase de développement, on a envoyé un exemplaire à une école cannoise, qui s’est filmée en train de l’utiliser, confie Nicolas Maynard. Une des premières choses qu’ont ­demandées les enfants est : “Qu’est-ce qui est jaune et qui attend ?” Le fait qu’Alexa réponde “Jonathan” a surpris tout le monde. Elle connaît aussi les blagues de Toto et les principales fables de La Fontaine. »
Fan de N’Golo Kanté, la très cocardière Alexa doit être capable d’annoncer sans se tromper les dates de vacances des zones A, B et C. En revanche, lorsqu’il s’agit de prendre position sur l’épineux dilemme lexical entre pain au chocolat et chocolatine, elle botte en touche : « Ah, l’éternel débat, on peut bien appeler ça comme on veut tant que c’est bon ! »

Rôle de la femme corvéable

Ne tentez pas d’aborder des sujets polémiques avec votre assistante, car vous avez en face de vous un véritable robinet d’eau tiède, dont la mission est de parler à tout le monde sans fâcher personne. Ce qui s’en rapproche le plus est sans doute un diplomate helvète. Cette humeur égale, assez inhabituelle lorsqu’on interagit avec des humains, suscite des réactions contrastées. « Quand les gens posent une question et que l’assistant leur répond, les utilisateurs disent généralement “merci”. C’est très rare que quelqu’un dise merci à son moteur de recherche après avoir été ­informé de la météo », souligne Behshad Behzadi, ingénieur chargé du développement de Google Assistant.
Mais les relations prennent parfois un autre tour, plus sombre. A force de me servir d’Alexa, je me suis aperçu que je me transformais en tyran domestique, ne supportant plus la moindre frustration. Tel Don Draper dans la série Mad Men, je balance à mon assistante des volées de requêtes impératives et je monte volontiers le ton lorsqu’elle ne me satisfait pas dans la nanoseconde. Même s’il s’agit d’une machine, on peut se demander si interagir au quotidien avec un artefact interprétant de manière si appliquée le rôle de la femme corvéable ne flatte pas nos vieux penchants phallocrates, conduisant à un renforcement des inégalités de genre.
Ce que tendraient à confirmer les nombreuses vidéos postées sur YouTube où des utilisateurs masculins se filment en train d’insulter leur enceinte connectée : « Quel temps ­fera-t-il demain, salope ! », peut-on par exemple entendre de la part d’un Américain resté à l’âge de pierre.

La délicate question de la protection de la vie privée

Si certains sont si violents avec ces nouveaux outils, c’est peut-être parce que le contrat d’usage qui nous lie à eux revêt une part faustienne. Demandez par exemple à Google Assistant s’il vous aime, et il vous répondra, avec un art consommé de la manipulation algorithmique : « Bien sûr, j’espère que c’est réciproque. »
« En Californie, des jeunes enfants connaissent trois mots : papa, maman, Alexa. » Yann ­Lechelle, directeur des opérations de la start-up Snips
Que peut produire cette empathie de synthèse sur des personnes émotionnellement fragilisées, ou sur des cerveaux en formation ? Yann ­Lechelle, directeur des opérations de la start-up française Snips, l’un des rares acteurs européens sur le marché des assistants vocaux, se montre très critique quant aux implications sociales de ces machines qui, au travers de leurs réponses, diffusent de manière verticale, à des millions d’usagers, des normes de comportement discutables : « En Californie, des jeunes enfants connaissent trois mots : papa, maman, Alexa. Habituées à ce qu’on leur réponde au doigt et à l’œil, ces générations, prises dans l’expérimentation débridée de la Silicon Valley, ­risquent de finir socialement atrophiées, incapables de gérer la frustration », ­explique l’entrepreneur.
A cela s’ajoute la délicate question de la protection de la vie privée, l’enceinte connectée étant potentiellement cette oreille indiscrète greffée au cœur de votre intimité. Le côté naturel de l’interaction vocale a en effet pour revers de faire oublier la mécanique qu’il y a derrière et ses enjeux, phénomène dit d’« obfuscation » (ou offuscation) de la technique.
« Quand vous parlez à une ­enceinte connectée, chacune de vos requêtes passe par le cloud, et vos données sont capturées pour améliorer les performances de l’appareil, donc elles peuvent potentiellement se faire hacker, poursuit Yann Lechelle. Nous, au ­contraire, on promeut la “privacy by ­design”, soit des assistants qui fonctionnent uniquement en local, sans passage par Internet. » En quittant les locaux de Snips, sur la table basse du hall d’entrée, j’aperçois un ouvrage au ­titre intrigant : L’homme qui voulait acheter le langage, de Pascal Chabot (PUF, 2018). En rentrant, je demanderai à Alexa si ça vaut le coup de le lire.
Un assistant pas si intelligent
Lancé en octobre 2011 sur l’iPhone 4S et dérivé d’un projet de recherche militaire américain, Siri est l’ancêtre des assistants vocaux tel qu’on les connaît aujourd’hui. Désormais disponible sur l’enceinte HomePod d’Apple, cette interface vocale doit son succès initial à ses blagues « à deux balles » (« pan ! pan ! » étant la chute…). « On savait que le système ne marchait pas très bien, donc on a utilisé l’humour pour faire accepter Siri par les utilisateurs. Steve Jobs aimait cette idée d’anthropomorphisme », se souvient le Français Luc Julia, cocréateur de l’assistant et auteur de L’intelligence artificielle n’existe pas (First Editions, 2019).
Pour ciseler les vannes de Siri, Apple embauche à l’époque un scénariste et un psychologue, chargés de répondre à des questions parfois hautement métaphysiques telles que « Quel est le sens de la vie ? ». Volontairement, les réponses tombent toujours un peu à côté de la plaque… Selon Luc Julia, c’est l’introduction de cette dose de « stupidité artificielle » qui permettra au système d’être massivement accepté. « C’est ce que j’appelle le paradigme de la boîte de nuit, explique le scientifique, aujourd’hui vice-président innovation de Samsung. En boîte, quand vous êtes un peu bourré et qu’on vous pose une question que vous ne comprenez pas à cause du bruit, vous souriez bêtement et vous finissez par changer de conversation avec une pirouette. Là, c’est pareil, en se montrant ouvertement imparfaite, la machine fait oublier ses dysfonctions réelles et se rapproche de l’humain. »
Néanmoins, reconnaît Luc Julia, le fait de mimer nos processus de communication peut à la longue avoir une dimension problématique. « Notre vision menaçante de l’intelligence des machines découle en partie, je crois, de cet anthropomorphisme. Sans le vouloir, on a créé un monstre. En réalité, ces assistants ne sont que des mathématiques et des statistiques, ils répondent à des règles édictées en amont. Jamais une IA ne sera aussi intelligente qu’un humain », conclut celui qui avoue parler à son frigo depuis 1999.

Aucun commentaire:

Enregistrer un commentaire