lundi 19 décembre 2016

Pourquoi l’information scientifique ne parvient-elle pas toujours à convaincre ?

 03/12/2016

Surpuissance d’internet, manipulation de la presse, manque de culture scientifique : les raisons pour lesquelles de prétendues alertes sanitaires, en dépit des dénégations de la majorité des scientifiques, connaissent tant de succès sont régulièrement énumérées.
Mais ces éléments, aussi importants soit-ils, ne sont pas seuls en cause. Notre esprit est façonné pour recevoir, traiter et accepter certaines informations plutôt que d’autres. Ces mécanismes sont décryptés pour nous par Jean-Paul Krivine, rédacteur en chef de Science et pseudo-sciences, la revue de l’Association française pour l’information scientifique, qui éclaire d’une manière précise et dépassionnée les raisons de nombreuses croyances actuelles.

Par Jean-Paul Krivine*
L’espérance de vie s’est régulièrement accrue depuis des décennies1 des maladies auparavant incurables bénéficient maintenant de traitements qui permettent de redonner de l’espoir, la qualité de l’eau et celle de l’air s’améliorent régulièrement2,3. Bien entendu, les nouveaux sujets de préoccupation ne manquent pas, mais comment comprendre que, dans ce contexte, nos contemporains soient devenus « des hypocondriaques permanents à peine étonnés que surgisse une nouvelle alerte sanitaire, fatalistes face aux scénarios de fin du monde qui sont devenus les narrations dominantes de notre avenir commun4» .
Une récente enquête5 lace la France en tête des pays réticents aux vaccins : plus de 40 % des personnes interrogées ne les jugent pas sûrs et 18 % remettent en cause leur efficacité. Ceci malgré un bilan sanitaire sans appel depuis plus d’un siècle et des effets secondaires limités et sans commune mesure avec les ravages des maladies dont les vaccins nous protègent. Les organismes génétiquement modifiés (OGM) pour l’alimentation suscitent également inquiétudes et rejet pour 55 % des Français6 alors que les OGM autorisés à la consommation ont fait l’objet d’études et d’évaluations approfondies (bien plus importantes que celles faites pour les plantes conventionnelles) ne révélant aucun danger et que des centaines de millions d’animaux et d’êtres humains en consomment depuis des décennies sans que les études aient montré le moindre impact sanitaire7. Les ondes de la téléphonie mobile font peur malgré les messages rassurants délivrés par les agences sanitaires sur la base de milliers d’études. La simple trace de résidus de pesticides, à des niveaux bien en deçà des limites réglementaires et encore plus éloignés des seuils toxicologiques, suscite des peurs conduisant certains à craindre pour leur santé la simple consommation de fruits et légumes.

Mal informés ? Certes, l’information scientifique a un rôle crucial à jouer. Mais elle ne suffit pas. Et il serait trop simple de réduire les comportements évoqués plus haut à des attitudes irrationnelles ou à de simples manipulations de l’opinion. Des manipulations, il y en a, mais il existe aussi de "bonnes" raisons pour des craintes infondées.

L’information scientifique : indispensable… mais insuffisante

L’opinion a priori que l’on a sur un sujet influe sur la perception des risques associés. Les travaux en économie comportementale ont ainsi montré que, quand les gens sont favorables à une technologie, ils estiment qu’elle offre de formidables avantages sans quasiment aucun risque, mais quand ils y sont hostiles, ils ne considéreront que les inconvénients8.De façon symétrique, les mêmes études ont révélé qu’une information présentant les avantages d’une technologie changeait aussi l’avis porté quant à ses risques : « dans le monde imaginaire où nous vivons, les bonnes technologies n’ont que peu d’inconvénients, les mauvaises technologies n’ont pas d’avantages, et toutes les décisions sont faciles »8.
Dans certains des exemples évoqués, l’utilité perçue peut être faible : la vaccination protège contre des maladies que l’on ne voit jamais autour de soi ou qui ont quasiment disparu de l’espace public, les OGM de première génération ont des propriétés utiles pour l’exploitant agricole, mais ne présentent aucun bénéfice pour le consommateur… De plus, quelque chose de perçu comme imposé sans que ses bénéfices apparaissent évidents est propice au développement de fantasmes sur ses dangers potentiels et sur l’existence de manipulations de tous ordres.

L’argument de l’utilité collective se heurte à d’autres difficultés. Certes, la nécessité d’une antenne relais pour permettre au téléphone mobile de fonctionner est comprise par tous, mais elle peut toujours être installée « plus loin ». La couverture vaccinale nécessaire peut être assurée par « les autres ». Le fameux syndrome « pas dans mon jardin »9 n’est pas dépourvu d’une certaine rationalité : pourquoi serait-ce à moi de supporter les « externalités négatives », les effets délétères (réels ou supposés) pour ce qui est d’intérêt général ?
De façon évidente, l’accès à une information scientifique sérieuse, documentée et compréhensible par tous peut aider à démêler le vrai du faux et à aller au-delà des peurs et des émotions ressenties face à l’avalanche d’informations et d’affirmations délivrées par les journaux, les télévisions ou Internet. Mais ce n’est pas suffisant. Pour s’en convaincre, il suffit de mentionner, par exemple, la couverture vaccinale insuffisante des personnels de soins10, catégorie ayant a priori un accès plus facile et plus direct à une information précise et de qualité. Par ailleurs, se pose une question plus générale : que faut-il croire dans un monde où il est impossible de tout vérifier par soi-même, et quelles sources sont les plus légitimes ?11

Controverse scientifique ou débat de société ?

En réalité, les questions scientifiques sont invoquées de façon indue et brouillent le débat de société sous-jacent (organisation et finalité du système de soins, modèle économique souhaité, type d’agriculture à privilégier, etc.). Ceci au profit d’une prétendue controverse dont les tenants et aboutissants échappent largement, si ce n’est complètement, au commun des mortels12 .
Ainsi, Nicolas Chevassus-au-Louis, dans La Malscience : de la fraude dans les labos13après avoir décrit les opérations de manipulation des données scientifiques qui se multiplient dans les laboratoires et avoir rappelé les méthodes parfois employées par les industriels (avec l’exemple bien connu de l’industrie du tabac) dénonce l’adoption par certaines associations des procédés condamnés chez l’adversaire : « Un CRIIGEN14  [nous] semble mener en matière de recherche sur les OGM le même rôle que le défunt Council for Tobacco Research financé par les cigarettiers américains : celui de procureur instruisant à charge une question scientifique sans le moindre souci d’impartialité. S’il est une conclusion à tirer de l’affaire Séralini, c’est assurément que, pour la première fois, un groupe associatif a recouru aux méthodes de l’industrie, convaincue depuis des décennies que rien ne vaut une publication scientifique pour défendre sa cause, et que peu importe la qualité du travail de recherche mené ».
« Combien sont-elles exactement, s’interroge Gérald Bronner15 , les victimes de ces vertueux “inquiéteurs”, tous les individus dont la vie aurait pu être sauvée si les coûts impliqués par la chasse aux risques illusoires avaient été convertis en politique de prévention ou de recherche ? ».
Pour atteindre leur but et emporter l’adhésion, certains vont intelligemment exploiter l’existence de biais cognitifs constitutifs de la « rationalité subjective » qui caractérise nos modes de pensée et de décision.

Les biais cognitifs

Ces biais cognitifs sont maintenant bien établis et tout un champ disciplinaire a été créé il y a une trentaine d’années : l’économie comportementale16 . Ils nous concernent tous et font qu’il existe pour chacun d’entre nous de « bonnes raisons » pour des croyances infondées17 .

Le poids de nos idées a priori

Le biais de confirmation opère comme un filtre informationnel et une grille de lecture : nous privilégions les informations qui confirment nos croyances et avons tendance à écarter ou discréditer celles qui les contredisent. À cela s’ajoute le fait que rechercher une information contradictoire requiert un effort, et que faire face à une « dissonance cognitive »18 est désagréable. Rejeter, ignorer ou disqualifier l’élément perturbateur (un fait, un argument, une information) est alors cognitivement plus facile. Par exemple, la croyance aux qualités sanitaires bénéfiques de l’alimentation bio est bien ancrée19 . Les études scientifiques ne mettant en évidence aucun avantage pour la santé20 auront toutes les raisons d’être écartées plutôt qu’analysées au risque de perturber une croyance bien ancrée jusque dans la vie quotidienne.
Le biais de croyance opère de façon similaire. La logique d’un argument est biaisée par la croyance en la vérité ou la fausseté de la conclusion : « quand les gens pensent qu’une conclusion est vraie, ils sont aussi tout à fait enclins à croire des arguments qui semblent l’étayer, même quand ces arguments sont erronés »21 .

Une mauvaise perception du hasard

Le cerveau humain doit souvent procéder à des analyses avant de prendre une décision. Mais ses ressources sont limitées, les informations dont il dispose sont parcellaires et, souvent, le temps disponible est très contraint. Il doit procéder à des raccourcis engendrant de nombreux biais. Ainsi, le hasard est-il perçu plus régulier dans l’espace et dans le temps qu’il ne l’est en réalité. Un petit échantillon sorti d’une série bien plus importante peut alors présenter une irrégularité surprenante qui n’a, en réalité, rien d’anormal quand elle est replongée dans l’ensemble des données.
De cette façon, plusieurs cas de cancers pédiatriques observés dans un village de Gironde ont inquiété les habitants. L’épandage de pesticides est suspecté. L’Agence régionale de santé (ARS Aquitaine), saisie par le maire d’un des villages, Preignac, a procédé à une analyse détaillée élargissant son enquête à neuf autres communes avoisinantes22 . Elle relève à Preignac des fréquences de tumeurs parfois cinq ou six fois plus importantes que ce qui serait attendu. Cela peut sembler énorme, et on comprend que ces seuls ratios ne rassurent pas les parents et habitants. Cependant, dans sa conclusion, l’agence précise que « Si l’on ne peut écarter l’absence d’excès de cas de cancer sur Preignac ou sa zone, celui-ci reste faible et ne concerne pas un type de cancer spécifique. Les méthodes épidémiologiques ne permettent pas de savoir si cet excès est lié à une fluctuation aléatoire des maladies (pouvant être compensée par un déficit dans les années à venir) ou si cet excès est véritablement lié à un facteur de risque environnemental commun. En outre, on constate que dès que l’on agrandit la zone d’étude aux autres communes limitrophes, l’excès de risque est moindre ». On est en effet sur un nombre très faible de cas attendus, et un facteur 5 ou 6, sur un très petit sous-groupe peut résulter de la simple fluctuation statistique. Une situation similaire a été rapportée en Belgique, dans la commune de Fernelmont où l’Agence wallonne pour une vie de qualité (AVIQ) a enquêté suite à une demande d’habitants relative à des cas de cancers.
Malheureusement, « notre esprit est profondément biaisé en faveur d’explications causales et gère mal les “simples statistiques” »23.

Trompé par les chiffres

Le nombre de cancers du sein diagnostiqués chaque année en France est passé de 21 000 en 1980 à 49 000 en 2012 (source : Institut national du cancer). Aux États-Unis, l’autisme touchait une personne sur 500 en 1995. En 2010, c’est une personne sur 68 qui est diagnostiquée (source : Center for Disease Control and Prevention). Le nombre de cancers de la thyroïde diagnostiqués en France a augmenté de 6 % par an entre 1980 et 2005 (source : Institut de veille sanitaire24 ). Faut-il alors parler d’« épidémies » et invoquer, pour les cancers du sein la responsabilité des « produits chimiques de notre environnement » au travers d’une « alerte » médiatisée par L’Obs en partenariat avec France Info25, pour l’autisme, celle des pesticides comme l’a fait avec retentissement l’émission Cash Investigation de février 201626, ou, pour les cancers de la thyroïde, les conséquences du " nuage de Tchernobyl " ?
Les chiffres paraissent éloquents et la conclusion semble ne pas souffrir la moindre contestation. Pourtant, une analyse plus poussée donne des explications très simples. Pour les cancers du sein, l’accroissement et le vieillissement de la population rendent compte d’une très grande partie de l’augmentation. Ramenée à un « taux pour 100 000 à âge égal », on constate même, depuis 2004, une diminution de l’incidence de la maladie en France26. Pour l’autisme, la tendance observée aux États-Unis se retrouve dans la plupart des pays, mais l’explication tient à deux éléments principaux : l’amélioration du suivi et du diagnostic et le changement de définition de la maladie, incluant maintenant des troubles classés auparavant comme "déficience intellectuelle"27. Enfin, en ce qui concerne les cancers de la thyroïde, l’Institut de veille sanitaire25 invoque « le rôle prépondérant de l’évolution des pratiques médicales » (un meilleur diagnostic) ajoutant que ses analyses permettent d’« exclure un impact important des retombées de Tchernobyl en France » (l’augmentation de l’incidence de ce cancer a d’ailleurs commencé en 1982 alors que l’accident de Tchernobyl s’est produit quatre ans après). Les chiffres bruts sont malheureusement trop souvent exploités de façon alarmiste au travers de fausses alertes sanitaires.
Encore une fois, notre cerveau est disposé pour se faire tromper : « des informations statistiques “sans relief” sont généralement ignorées quand elles sont incompatibles avec les impressions que l’on a d’un cas »28 .

La mauvaise attribution d’une cause à un effet

Pour agir ou s’adapter efficacement, l’être humain souhaite trouver les raisons d’un effet observé. Cette recherche de causes est à l’origine de nombreux biais de raisonnement29 et le risque est grand de confondre une coïncidence temporelle avec une causalité. Les statisticiens savent bien que corrélation n’est pas causalité30 , il n’empêche que notre cerveau a naturellement tendance à effectuer ce raccourci. Ainsi, certaines vaccinations ont été accusées de provoquer des maladies auto-immunes (dont la sclérose en plaques). Si les vaccins sont régulièrement innocentés, il n’en demeure pas moins que le soupçon reste, appuyé par les témoignages poignants de personnes atteintes de sclérose en plaque juste après une vaccination. Comme le rappelle l’Agence nationale de sécurité du médicament et des produits de santé31,« la sclérose en plaques n’est pas une maladie rare […]. L’incidence (c’est-à-dire le nombre de nouveaux cas par an) est de 4,1 à 8,2 cas pour 100 000 habitants. Ces données sont à mettre en perspective avec les 11 cas de sclérose en plaques survenus entre le 1er janvier 2007 et le 31 décembre 2010 qui ont été déclarés au système français de pharmacovigilance dans les suites d’une vaccination contre le virus de l’hépatite B ».

Le poids de nos émotions, de nos sentiments et de nos valeurs

L’être humain n’est pas l’"agent rationnel" un temps imaginé par les économistes, agent qui serait égoïste (au sens où il privilégierait son seul intérêt propre), avec des goûts et des préférences qui ne varieraient pas et qui élaborerait ses actions à l’aune d’une mesure d’utilité objective. En réalité, il ne prend pas toujours les décisions que l’on qualifierait de "rationnelles", ne pèse pas le pour et le contre de façon raisonnée et complète. Aux biais cognitifs évoqués plus haut s’ajoutent d’autres distorsions faisant de nous des êtres « non rationnels, mais pourtant prévisibles »32.

Les risques plus que les bénéfices

Notre cerveau « comporte un mécanisme conçu pour accorder la priorité aux mauvaises nouvelles, […] les menaces sont prioritaires par rapport aux opportunités ». Ainsi, des «termes chargés émotionnellement attirent très vite l’attention »33 , plus vite que des termes rassurants ou positifs. C’est ainsi que des manchettes telles que « les OGM sont des poisons », « les vaccins provoquent de graves invalidités », « les fruits sont bourrés de pesticides » ou « le scandale des statines » sont assurées du meilleur impact.
Cette prédisposition entre en résonance avec la propension de notre cerveau à surestimer la probabilité d’événements rares. Ainsi, « l’effet de possibilité », la simple idée que quelque chose d’effrayant puisse se réaliser nous pousse à consacrer des ressources disproportionnées au regard de la probabilité réelle que le phénomène se produise et des conséquences attendues. En réalité, les probabilités sont ignorées et seul compte le fait que « ce soit possible ». Cette crainte est renforcée par l’information souvent délivrée par les médias qui donne corps dans notre imaginaire à des scénarios pour ces événements rares ou irréalistes. Dès lors, il ne suffit pas de réduire ou de limiter le risque, l’inquiétude ne sera éliminée que par le risque zéro, sans considération ni pour sa faisabilité, ni pour son coût, ni même par les nouveaux risques que les décisions mises en œuvre peuvent engendrer.

Par ailleurs, en situation d’incertitude, on préfère souvent ne rien faire. Pour la plupart des gens, les conséquences d’une inaction sont mieux acceptées que celles, même identiques, d’une action volontaire. Ainsi pourrait s’expliquer une partie des réticences vis-à-vis de la vaccination qui « pourrait être davantage motivée par une crainte égoïste de regrets que par un souhait d’optimiser la sécurité de l’enfant »34.

Le bon et le mauvais

Nous l’avons vu, l’opinion a priori qu’un individu a sur un sujet influe sur sa perception des risques associés. Or, la première chose que fait notre cerveau confronté à une nouveauté n’est pas d’évaluer le risque (ce qui est complexe), mais de décider d’abord si c’est bon ou mauvais. Dans ce registre, le naturel est bon (et donc sans risque) et le synthétique ou l’artificiel est mauvais (donc a priori risqué)… Les traitements naturels sont vus comme agissant en douceur, à l’opposé des produits de synthèse perçus comme agressifs, oubliant que c’est la maladie qui est dure. L’engouement pour les médecines naturelles ne s’explique-t-il pas, en partie, par cette vision idyllique d’une nature bonne ?

Le rôle amplificateur d’Internet

Internet est une source d’information sans précédent, démocratisant l’accès à la connaissance, mais c’est également un amplificateur redoutable de toutes les fausses informations, un outil incomparable pour diffuser toutes sortes de rumeurs et favoriser les manipulations35. Le biais de confirmation évoqué plus haut va trouver résonance sur la toile. Ceux qui proclament la dangerosité des vaccins, ceux qui affirment que la moindre trace de résidu de pesticide nuit à la qualité sanitaire des fruits et légumes que l’on consomme, ceux qui affirment que le cholestérol ne joue aucun rôle dans les maladies cardiovasculaires et, donc, que l’usage des statines est inutile ou encore ceux qui affirment que les ondes qui nous entourent sont dangereuses sont beaucoup plus actifs sur Internet que les scientifiques qui n’ont, a priori, pas de raison d’avoir une âme militante. Il suffit, pour s’en convaincre, de taper sur son moteur de recherche l’un quelconque des mots clés associés aux sujets mentionnés pour voir que les premières pages affichées sont, dans une écrasante majorité, celles de sites militants. C’est ainsi que, dans la consultation avec son médecin, le patient vient souvent, non seulement avec une idée assez précise des maux dont il souffre, mais aussi, porteur d’une bonne partie des craintes véhiculées par Internet.
Le patient plus informé est une bonne chose, elle va dans le sens d’un meilleur dialogue avec son médecin. Mais quand l’information recueillie est fausse ou mensongère, c’est l’effet inverse qui se produit.

Quelles solutions ?

L’esprit humain ne peut bien entendu pas être réduit à ses biais cognitifs. L’essentiel de nos jugements et de nos actes est la plupart du temps approprié. Il importe alors de bien identifier les situations propices aux erreurs de jugement. L’information scientifique est une nécessité : mieux connaître un sujet contribue à alimenter notre esprit par des éléments de nature à susciter le doute et la réflexion. Développer un esprit critique, connaître la « cartographie de nos erreurs systématiques » et suivre une méthode de réflexion sont autant d’autres composantes utiles. Comprendre comment la connaissance scientifique se construit peut aider à faire le tri dans la moisson d’informations recueillie sur Internet.
Il n’en reste pas moins que le discours scientifique, où le doute doit rester une composante originelle, sera toujours moins percutant que les certitudes anxiogènes énoncées avec aplomb et de façon définitive. Ne peut-on pas espérer un rôle plus actif des pouvoirs publics dans la promotion de l’information scientifique, au risque, certes, de ne pas caresser dans le sens du poil une opinion parfois mal informée et inquiète de toutes les catastrophes qui nous sont régulièrement promises ?

*Jean-Paul Krivine est rédacteur en chef de Science et pseudo-sciences, la revue de l’Association française pour l’information scientifique

 Références :
1www.ined.fr/fr/tout-savoir-population/chiffres/france/mortalite-cause-deces/esperance-vie/
2www.statistiques.developpement-durable.gouv.fr/indicateurs-indices/f/1965/1115/evolution-qualite-physico-chimique-cours-deau.html
3www.statistiques.developpement-durable.gouv.fr/lessentiel/ar/227/226/evolution-qualite-lair-agglomerations-francaises-situation.html
4Gérald Bronner, La planète des hommes, réenchanter le risque, PUF 2014.
5www.vaccineconfidence.org/
6Eurobaromètre, 2010, en réponse à la question « Les aliments génétiquement modifiés ne sont pas bons pour vous et votre famille ». http://ec.europa.eu/public_opinion/archives/ebs/ebs_341_fr.pdf
7https://www.nap.edu/catalog/23395/genetically-engineered-crops-experiences-and-prospects
8Daniel Kahneman, Système 1, système 2, Flamarion 2011, p. 172.
9Syndrome « nimby » de l’anglais : « Not In My BackYard ».
10http://www.cclin-arlin.fr/bulletin/2016/03/03-pdf/03-floret.pdf
11Voir à ce sujet le dossier « Comment s’établit la vérité scientifique ? Le difficile chemin vers la connaissance », Science et pseudo-sciences n°318, octobre 2016.
12Sur bon nombre des sujets évoqués plus haut, le consensus scientifique est fort et on peut raisonnablement estimer que les sujets de désaccord scientifiques sont suivis avec plus de pertinence par les autorités sanitaires, a priori plus compétentes pour en considérer les impacts, que le citoyen normal qui aura plutôt son avis à donner sur les conséquences sociétales. Ce qui n’enlève rien, bien au contraire, à la nécessaire information scientifique accessible à tous. Cette remarque ne signifie pas que l’organisation de l’expertise publique soit perfectible (voir les récentes affaires Biotrial Mediator ou Dépakine).
13Nicolas Chevassus-au-Louis, La Malscience : de la fraude dans les labos, Éditions du Seuil, 2016.
14CRIIGEN : association militant contre les OGM.
15Gérald Bronner, La démocratie des crédules, PUF 2013.
16Tversky, A. &Kahneman, D. (1974), « Judgment under uncertainty: heuristics and biases », Science, Vol. 185, pp. 1124–1131. Voir aussi le livre de vulgarisation de Daniel Kahneman (déjà cité).
17Raymond Boudon, L’art de se persuader des idées douteuses, fragiles ou fausses, Fayard 1990.
18La dissonance cognitive apparaît quand un comportement ou une situation est en conflit avec des connaissances ou des convictions. Théorieproposée par Léon Festinger (1957) A Theory of Cognitive Dissonance. California: Stanford University Press.
19http://www.bva.fr/fr/sondages/les_francais_et_le_bio.html
20« Les fruits et légumes bio ne sont pas meilleurs pour la santé », Léon Guéguen, Science et pseudo-sciences n°314, octobre 2015. Dans le dossier : « Quelques idées reçues sur le bio ».
21Kahneman 2013, op. cit. p.59.
22InVS, « Investigation d’une suspicion d’agrégat de cancers pédiatriques dans une commune viticole de Gironde », Juin 2013. http://opac.invs.sante.fr/doc_num.php?explnum_id=10089
23Kahneman 2013, op. cit. p.222.
24InVS, « Évolution de l’incidence du cancer de la thyroïde en France métropolitaine, Bilan sur 25 ans », 2011. http://invs.santepubliquefrance.fr/publications/2011/bilan_cancer_thyroide/bilan_cancer_thyroide.pdf
25« Comment se construit une fausse alerte », Catherine Hill, 23 septembre 2016. Sur le site www.pseudo-sciences.org
26« Comment les téléspectateurs ont été abusés par Cash Investigation », 2 mars 2016. www.pseudo-sciences.org/spip.php?article2614
27« Y a-t-il une épidémie d’autisme ? », Franck Ramus, Science et pseudo-sciences n°317, juillet 2016.
28Kahneman 2013, op. cit. p.301.
29Jacques Van Rillaer, « Psychologie des attributions causales », Science et pseudo-sciences n° 305, juillet 2013.
30Voir par exemple Hubert Krivine, Petit traité d’hazardologie, Cassini 2016.
31http://ansm.sante.fr/var/ansm_site/storage/original/application/f6c024ab94698457d8ae667fd5c98206.pdf
32Pour reprendre le titre du livre de Dan Ariely, Predictablyirrational. HarperCollins, 2008.
33Kahneman 2013, op. cit. p.361.
34Kahneman 2013, op. cit. p.421.
35Voir, à ce propos, l’ouvrage de Gérald Bronner : La démocratie des crédules. Op. cit.

Aucun commentaire:

Enregistrer un commentaire