par Jérémy Torres publié le 21 novembre 2023
«Sadtok», c’est la face obscure de TikTok. Des propositions de contenu générées au fil de ses consultations : on scrolle, on scrolle, on s’attarde sur une vidéo et les suivantes lui ressemblent. C’est le principe de la section «Pour toi» sur la plateforme : elle collecte les données de l’utilisateur pour adapter son contenu. On parle de bulle filtre, la même qui peut vous faire croire que le monde entier est de gauche si l’on s’attarde uniquement sur son fil Twitter. Questionnable, cette personnalisation devient carrément dangereuse quand le contenu en question se rapporte à la santé mentale, à la solitude, la dépression et la fétichisation des comportements à risque. Dans un rapport d’une centaine de pages publié début novembre et intitulé «Poussé·e·s vers les ténèbres», Amnesty International s’est penché sur la manière dont le réseau social prisé par les jeunes pouvait alimenter la détresse d’utilisateurs atteints de dépression ou d’anxiété. Lisa Dittmer, chercheuse spécialisée dans le droit des jeunes en ligne et au cœur de l’étude, en explique les raisons et les conclusions à Libération.