La compréhension des mystères du cerveau constitue l’un des défis majeurs de ce début de XXIe siècle. L’un de ses secrets les mieux gardés, et peut-être le plus important, réside dans la manière dont celui-ci code les informations.
Déchiffrer ce codage, c’est-à-dire le mécanisme par lequel il convertit une information (tel un son) en un signal électrique interprétable par les neurones, constituerait un pas de géant dans la compréhension de son fonctionnement. Des neuroscientifiques, sous la responsabilité d’Alexandre Pouget, professeur au département des neurosciences fondamentales de l’université de Genève, proposent le 7 septembre, dans la revue Nature Neuroscience, une modélisation théorique du système de codage utilisé par le cerveau.
« Nous nous sommes demandé comment le cerveau parvient à analyser en continu l’incessant flux de signaux qu’il reçoit », dit Alexandre Pouget. A chaque instant, le cerveau doit reconnaître les informations qui lui parviennent et les distinguer des signaux parasites, ou bruit de fond. Un incroyable écheveau à démêler qui mettrait à genoux n’importe quel supercalculateur.
La prouesse du cerveau est d’autant plus remarquable qu’elle s’effectue moyennant une consommation énergétique bien moindre. « Cette prodigieuse capacité de traitement de l’information pour un coût énergétique si faible a toutefois un prix : les calculs du cerveau demeurent approximatifs, tempère Alexandre Pouget. Pour obtenir un modèle théorique précis, nous avons donc cherché à prendre cela en compte. »
DES « CODES REDONDANTS » POUR RESTER PERFORMANT
Le cerveau a beau faire des erreurs, il est néanmoins capable de les corriger grâce à ce que les neuroscientifiques appellent les « codes redondants », un terme issu des mathématiques statistiques :« Plutôt que d’écrire chaque information dans un seul neurone, le cerveau la chiffre dans environ un millier d’entre eux. En comparant le signal entre ces différents neurones, le cerveau peut alors facilement repérer ses erreurs. »
Véritables « copies de sauvegarde », ces codes redondants évitent aussi de perdre l’information lorsque le neurone meurt. « Cela nous permet de rester performants malgré la perte quotidienne de milliers de neurones », ajoute le chercheur. Et quand bien même certaines erreurs passent à travers les mailles du filet, elles demeurent la plupart du temps imperceptibles grâce aux codes redondants. « Imaginez-vous devant un portrait numérisé : si vous ajoutez des erreurs, par exemple en pixellisant l’image, vous allez tout de même reconnaître la personne. »
Les auteurs de l’étude ont ainsi élaboré un modèle théorique de la structure probable du code cérébral redondant. « Pour rendre compte de cette redondance, nous proposons un indice de corrélation, ratio qui rend compte du partage de l’information entre deux neurones », annonce le chercheur. La corrélation est un reflet de la redondance de l’information entre plusieurs neurones. Si l’indice de corrélation est de 100 %, les neurones considérés partagent exactement la même information ; à 0 %, ils n’en ont aucune en commun.
Depuis la mise en évidence expérimentale des corrélations, dans les années 1990, aucun modèle théorique prédictif ne s’est avéré satisfaisant. Sans garantie pour l’instant d’être plus valable, celui proposé par Alexandre Pouget est différent : « Nous avons travaillé de manière plus simplifiée, en ne prenant en compte qu’une fraction des corrélations mesurées expérimentalement, mais qui sont les plus significatives. »
Pour Sophie Denève, du laboratoire de neurosciences cognitives de l’Ecole normale supérieure, à Paris, cette étude va se révéler intéressante pour les neurosciences expérimentales : « Elle précise et complète nos connaissances théoriques, sans toutefois les révolutionner. Je trouve en revanche beaucoup plus intéressant que les résultats soient présentés d’une manière accessible aux neurosciences expérimentales. Il faudra donc suivre ce que cela va donner », analyse la chercheuse.
La prochaine étape de ce travail constitue, en effet, à vérifier dans des expériences ces postulats théoriques. Les protocoles ne sont pas encore définis. Alexandre Pouget espère que « maintenant que nous comprenons mieux la nature du code redondant, nous allons pouvoir identifier les neurones responsables ». Comment ? « Peut-être en regardant in situ chez des souris quels neurones s’activent lorsque leur cerveau commet des erreurs. »
L’approche théorique développée par Alexandre Pouget se veut ainsi à l’opposé de celle du projet européen géant Human Brain Project (HBP), que le chercheur genevois, avec quelques centaines d’autres neuroscientifiques, a ouvertement critiqué cet été.
Lire aussi : Mauvaises ondes pour le cerveau virtuel
Alors que le HBP fait le pari de la grande échelle, en tentant de simuler le cerveau grâce à une colossale puissance de calcul, la présente étude ambitionne d’aborder le problème en s’attaquant aux mécanismes de base des rouages du cerveau, aux principes théoriques fondamentaux qui le gouvernent.
Par Fabien Goubet (« Le Temps »)
Aucun commentaire:
Enregistrer un commentaire