par Jérémy Torres publié le 21 novembre 2023
«Sadtok», c’est la face obscure de TikTok. Des propositions de contenu générées au fil de ses consultations : on scrolle, on scrolle, on s’attarde sur une vidéo et les suivantes lui ressemblent. C’est le principe de la section «Pour toi» sur la plateforme : elle collecte les données de l’utilisateur pour adapter son contenu. On parle de bulle filtre, la même qui peut vous faire croire que le monde entier est de gauche si l’on s’attarde uniquement sur son fil Twitter. Questionnable, cette personnalisation devient carrément dangereuse quand le contenu en question se rapporte à la santé mentale, à la solitude, la dépression et la fétichisation des comportements à risque. Dans un rapport d’une centaine de pages publié début novembre et intitulé «Poussé·e·s vers les ténèbres», Amnesty International s’est penché sur la manière dont le réseau social prisé par les jeunes pouvait alimenter la détresse d’utilisateurs atteints de dépression ou d’anxiété. Lisa Dittmer, chercheuse spécialisée dans le droit des jeunes en ligne et au cœur de l’étude, en explique les raisons et les conclusions à Libération.
Pourquoi avoir choisi de travailler sur TikTok ?
Avec Amnesty International, on a déjà travaillé sur les entreprises qui basaient leur modèle économique sur la surveillance. On a publié des rapports sur Google et Facebook, mais en se concentrant sur les droits des jeunes et des enfants, TikTok s’est imposé comme un choix évident. La plateforme grandit très très vite chez les jeunes et a atteint le milliard d’usagers. C’était un choix facile.
Quelles conclusions avez-vous pu tirer de cette enquête ?
Dans notre recherche, on a fait l’expérience de créer un compte de zéro en se faisant passer pour un jeune de 13 ans. En allant simplement dans la section «Pour toi» et en s’arrêtant sur les vidéos en lien avec la santé mentale, la tristesse, l’anxiété, en l’espace de 3 à 20 minutes, la majorité des vidéos présentées traitaient de ces thématiques. Il y a tout un tas de contenus très limites qui encouragent les pensées dépressives et qui dépeignent un monde douloureux.
Votre étude est basée sur des cas concrets ?
Oui. On a parlé à des jeunes, notamment aux Philippines, dont un étudiant diagnostiqué avec un trouble bipolaire aux épisodes dépressifs sévères. Ce jeune homme s’est intéressé à des poèmes un peu sombres sur TikTok et en un rien de temps, l’algorithme s’est approprié son état émotionnel et lui a envoyé de plus en plus de vidéos qui faisaient la promotion de l’automutilation et de la mort. Pour des jeunes comme lui, TikTok fait de ce genre de pensées la nouvelle norme et rend la sortie d’états dépressifs bien plus compliquée. On a des cas d’autres jeunes happés par les réseaux sociaux au point de se faire du mal ou de mettre fin à leurs jours. Au Royaume-Uni, en 2017, le cas de Molly Russell a beaucoup fait parler. C’était une jeune anglaise de 14 ans qui souffrait de dépression et qui a fini par se suicider après avoir vu des tonnes de contenus négatifs sur Instagram. C’était peu de temps avant TikTok avec le même genre de dynamique, un contenu hyper personnalisé qui s’accroche à vos vulnérabilités et vous pousse vers tous ces contenus horribles. Et les plus vulnérables sont les jeunes qui finissent par payer un prix immense.
On peut lire dans le rapport qu’il s’agit également d’un problème plus large d’addiction…
Cela a été un de nos éléments de recherche. On s’est rendu compte que même les personnes en bonne santé mentionnaient leur addiction à TikTok. On se dit qu’on va se coucher, scroller pendant 5 minutes et on se rend compte que 6 heures sont passées sans faire attention. Au Kenya, on est allé parler à des jeunes qui nous ont mentionné des fois où ils oubliaient même de manger ou de dormir, au point de rater l’école. Et ce sont précisément ces jeunes qui ont besoin de sommeil pour que leur cerveau puisse se développer. L’addiction est un problème qui touche un public bien plus large. Si mon truc, c’est la danse, et que je passe 6 heures à en regarder, ça devient problématique. Il commence à y avoir des recherches sur les effets de l’addiction aux réseaux sociaux sur la santé, avec des problèmes de sommeil ou d’attention qui se répercutent sur les cerveaux des adolescents.
Est-il possible d’améliorer le fonctionnement de TikTok ?
A la fin de notre étude, nous avons dressé une liste de recommandations pour TikTok, notamment d’arrêter l’hyperpersonnalisation, ou en tout cas de ne plus en faire une fonctionnalité par défaut. C’est une forme de surveillance qui devrait être clairement consentie par l’usager. TikTok devrait nous demander nos centres d’intérêt, on pourrait répondre «les chevaux, le foot, la danse» et ça serait déjà un consentement bien plus éclairé. Car beaucoup de jeunes nous ont dit que ça pouvait leur faire peur de voir à quel point les algorithmes de TikTok pouvaient les cerner.
Vous avez publié en parallèle une enquête intitulée «Pris·e au piège de la surveillance intrinsèque à TikTok». C’est complémentaire ?
«Poussé·e·s vers les ténèbres» revenait sur les stratégies employées par TikTok pour maintenir l’usager sur la plateforme et qu’il consomme un maximum de contenus, donc de pubs. «Pris·e au piège de la surveillance intrinsèque à TikTok» se penche sur les politiques relatives à la vie privée des usagers et la manière dont leurs données sont utilisées pour faire de l’argent. Dans les grandes lignes, on accuse TikTok d’utiliser les données récoltées sur les jeunes, ce qui va à l’encontre du droit à la vie privée. Nous considérons que les publicités ciblées constituent une forme de manipulation qui ne devrait pas être acceptée. Dans la vraie vie, on ne laisserait pas quelqu’un suivre nos enfants pour connaître leur vie. Ce n’est pas quelque chose qu’on aurait accepté avant l’arrivée des réseaux sociaux. C’est inquiétant de voir que nous avons accepté que toutes ces entreprises sachent tout de nous et s’en servent contre nous.
Aucun commentaire:
Enregistrer un commentaire