Le Monde Blogs 30-10-12
Le problème de l’apprentissage automatisé et des réseaux de neurones, principales techniques faisant tourner les programmes d’intelligence artificielle, repose sur le fait que même pour ceux qui les programment, leurs résultats sont souvent inexplicables.
C’était le constat que dressait déjà Wired il y a quelques mois. C’est le même que dresse Nautilus. La difficulté demeure d’expliquer le modèle, estime le chercheur Dimitry Malioutov, spécialiste du sujet chez IBM. Ces programmes utilisent des données pour y trouver des schémas, mais même ceux qui les programment ont du mal à expliquer comment ils fonctionnent. Ce qui signifie à la fois qu’on a du mal à prédire leurs échecs et que leurs résultats sont difficilement interprétables…
Alors que l’Union européenne vient de se prononcer pour un droit à l’explication des décisions automatisées, permettant aux citoyens de demander une forme de transparence des algorithmes, reste à savoir ce que signifie exactement cette transparence. Doit-elle être une explication ou une appréciation de sa complexité ?
Faut-il choisir entre l’exactitude et l’explicabilité ?
Pour David Gunning de la Darpa, les progrès récents et rapides de ces technologies… soulignent un paradoxe : l’exactitude de la prédiction de certaines techniques est inversement proportionnelle à leur explicabilité.
L’utilisation d’arbres de décision par exemple permettent une meilleure explicabilité, mais ils se révèlent moins exacts dans leur capacité prédictive que l’apprentissage profond, qui donne de très bons résultats en terme de prédiction tout en restant obscur sur son fonctionnement. Choisir entre le pourquoi et le quoi, risque d’être assez difficile…