vendredi 19 janvier 2024

Interview Michael Stora : «Les modérateurs des réseaux sociaux peuvent développer une sorte de désensibilisation, de déni»

par Laura Beaudoin  publié le 14 janvier 2024

Pour le psychologue Michael Stora, il est essentiel de mettre en place des séances de «débriefing» après le visionnage de vidéos violentes, et laisser la possibilité aux modérateurs de parler quotidiennement de ce qu’ils voient.

Quelles conséquences psychiques, sur le long terme, peut engendrer le visionnage à la chaîne de vidéos violentes ? Pour le psychologue Michael Stora, ces contenus peuvent faire écho à des traumatismes anciens et les réveiller, et également générer des troubles anxieux, aggravés par les conditions de travail fordistes de ces modérateurs.

Suicide filmé, meurtre, enfant battu, animal tué… Quel impact psychologique peut avoir le visionnage à la chaîne et quotidien de telles scènes ?

Le traumatisme, c’est le fait d’être passif face à une situation pour laquelle on ne peut pas agir. Lorsqu’on se retrouve confronté à une image qui nous apparaît comme violente, on est pris par une forme de sidération. Elle peut, à force, avoir un impact sur la santé mentale. Ces modérateurs sont des «éboueurs du Web», pour reprendre l’expression de la chercheuse américaine Sarah T. Roberts. Ils ont affaire à toutes les dérives de perversion, de violence. Ces personnes ont assimilé des notions de morale et d’attention au corps de l’autre qui vont être mises à mal par le visionnage de vidéos immorales. Ce qui va créer une sorte de dissonance cognitive. On pourrait évidemment se dire que ce visionnage à la chaîne est traumatique, mais en réalité, pour ces modérateurs, le fait d’interdire ces vidéos donne un sens à leur travail et les transforme en rempart face à quelque chose de traumatisant. Néanmoins, cela peut faire écho à quelque chose que le modérateur a déjà lui-même vécu. C’est donc l’après-coup qui peut devenir traumatique.

Y a-t-il des risques de développer des maladies mentales ?

Ça ne les provoque pas, mais ça peut venir révéler une pensée délirante appelée «potentialité psychotique», qui était jusque-là éteinte. En outre, certaines personnes développent des problèmes d’insomnie, dorment de moins en moins voire presque plus, se retrouvent dans une situation de fragilité psychique très forte. Ce qui peut entraîner une décompensation psychotique, soit le fait, au bout d’un moment, d’exploser et de tout relâcher, comme une cocotte-minute. A force de visionnage, les modérateurs peuvent développer une sorte de désensibilisation, de déni. Typiquement, lorsqu’on est dans le déni, on n’a peur de rien, on n’a plus d’affect. Dans ce cas-là, c’est le déni artificiel d’une vision traumatique qui va forcément finir par revenir.

Certaines vidéos sont tout de même publiées. Lorsque les modérateurs s’en rendent compte, peuvent-ils développer un sentiment de responsabilité ?

Lorsque j’étais directeur de la cellule psychologique des skyblogs, on venait en aide au service de modération car c’étaient des blogs adolescents, comme TikTok, et la souffrance adolescente est parfois très forte. Il y a beaucoup de passages à l’acte suicidaire. Le service de modération a été traumatisé car deux adolescentes avaient annoncé leur suicide en vidéo, puis l’ont filmé en live. Dans ce genre de cas, on fait face à un sentiment d’impuissance terrible et donc un sentiment de responsabilité peut se développer. Chez certains, cela peut aller jusqu’à la culpabilité comme lors de non-assistance à personne en danger.

La modération est pourtant essentielle sur les réseaux sociaux. Comment faire pour préserver la santé mentale de ces modérateurs ?

En effet, ce travail de prévention primaire ne peut qu’être réalisé par un être humain, et les algorithmes n’ayant pas d’émotions, ils ne sont pas adaptés. Pour autant, tout le monde n’est pas apte à le faire. Pour écarter les personnes trop sensibles, le recrutement exigerait idéalement une sélection. Cette étape passée, je pense que l’accompagnement psychologique est primordial. Le visionnage d’images en boucle, «sans transition», peut être violent, car l’être humain a besoin d’une forme de cohérence narrative. Idéalement, il faut qu’il y ait un début, un milieu et une fin. Ils n’ont pas d’espace pour se rassurer, pour se reposer de ce flux continu qui se déverse dans leur psyché toute la journée. Les modérateurs doivent avoir la possibilité de parler quotidiennement de leur expérience. Après le visionnage de scènes très violentes, il faut faire des séances de débriefing. Verbaliser à tout prix, car parler, c’est une manière de mettre à distance les choses.

Le rythme de travail éprouvant et la course aux résultats – comme cette prime de 200 euros accordée à partir de 95 % de taux d’efficacité pour les modérateurs de TikTok – sont-ils des facteurs qui aggravent cette fragilité psychologique ?

Dans ce type de boulot, la prime à l’efficacité ne fait que renforcer cette désensibilisation. Les modérateurs se mettent en mode robot. Dans le cas des modérateurs de TikTok installés à Lisbonne, si le smic portugais est à 750 euros, 200 euros représentent une somme importante pour eux. Cela revient à dire «je suis une machine dont la vocation est avant tout d’être rentable». Ces personnes-là devraient être beaucoup mieux payées : ils ont une fonction primordiale, puisqu’ils vont protéger les autres d’un contenu hyper anxiogène. Parmi les témoignages, personne ne dit «je suis fier de ce travail» alors qu’il est pourtant vital. Finalement, la modération, c’est presque un métier de soin, du «care».


Aucun commentaire:

Enregistrer un commentaire