Une machine peut-elle souffrir de maladie mentale ? Peut-on parler de « névrose » pour un robot ? C’est la question que pose le psychologue Thomas Hills(@thomhills) dans Aeon.A propos des systèmes de Deep Learning, tels qu’AlphaGo, il affirme ainsi : « leurs problèmes ne sont pas apparents lorsqu’on regarde leur code source. Ils sont inhérents à la façon dont ils représentent l’information. Cette représentation est un espace multidimensionnel en constante évolution, c’est un peu comme se promener dans un rêve. La résolution de ces problèmes n’exige rien de moins qu’un psychothérapeute pour algorithmes. »
Les faits mentionnés dans l’article ne sont pas particulièrement inédits : les biais algorithmiques dont il parle, qui poussent les logiciels à avoir des comportements racistes, sexistes ou en tout cas des préjugés liés à la façon dont les « data » ont été entrées par les humains ont déjà été largement dénoncés, notamment dans nos colonnes (par exemple, entre autres, ici ou ici), et ce genre de problématique est au coeur du projet NosSystèmes de la Fing. On sait également que la moindre modification dans une image (même invisible par les humains) ou la plus petite coquille dans un texte, est susceptible d’induire des erreurs monumentales (et incompréhensibles) dans un programme.
Aucun commentaire:
Enregistrer un commentaire