Dans une étude publiée par Amnesty International mardi 7 novembre 2023, le réseau social TikTok est pointé du doigt pour ses effets néphastes sur la santé mentale de certains jeunes utilisateurs.
Le réseau social TikTok comprend des centaines de milliers de vidéos de danses, de challenges plus ou moins inventifs qui sont très divertissants et addictifs. Le problème, c'est que TikTok ce sont aussi parfois des vidéos qui parlent de tristesse et de désespoir. C' est un « espace toxique et addictif pour les enfants », qui « aggrave des problèmes de santé mentale existants », alerte Katia Roux, chargée de plaidoyer « Libertés » pour Amnesty International France, et spécialisée en technologies et droits humains.
L’ONG publie une étude sur le fil « Pour toi » de TikTok, le contenu proposé par défaut par l’application et qui s’adapte aux centres d’intérêt de chaque utilisateur. En 2022, TikTok totalise 1,7 milliards d'utilisateurs actifs dans le monde. Selon l’association, le « fil Pour Toi encourage l’automutilation et les idées suicidaires ». Un temps passé sur l’application qui peut avoir des « conséquences dramatiques » pour certains jeunes, puisque ceux qui regardent des vidéos en lien avec la santé mentale reçoivent des contenus vidéo qui « idéalisent ou renvoient une image romantique » de la dépression ou du suicide, dénonce Katia Roux d’Amnesty International France.
L’ONG et ses partenaires ont fait tourner une trentaine de comptes automatiquement, ainsi que trois manuellement, configurés pour simuler le comportement d’adolescents de 13 ans (l’âge minimum pour s’inscrire sur les réseaux sociaux) aux États-Unis, au Kenya et aux Philippines. Cible de l’étude : le fil "pour toi", celui qui s’ouvre par défaut lorsqu’on lance l’application TikTok, et qui est présenté comme un flux algorithmique infini de vidéos "censé refléter ce que le système a défini par déduction comme correspondant aux intérêts de chaque utilisateur ou utilisatrice" selon le rapport.
Selon l’étude, lorsque le comportement simulé montre un intérêt pour la santé mentale, "au bout de cinq ou six heures passées sur la plateforme, près d’une vidéo sur deux est relative à la santé mentale et potentiellement nocive, soit un volume 10 fois plus important que celui présenté aux comptes n’ayant indiqué aucun intérêt pour le sujet". Amnesty International parle ainsi d'un effet "spirale", que chacun peut parfois constater sur la plateforme sur des sujets anodins, mais qui vaut aussi sur des thèmes aussi sensibles que la santé mentale.
Pire : d’après le rapport, cet "effet spirale" se renforce quand le compte va consulter manuellement à nouveau des vidéos déjà visionnées sur le sujet. Alors, ce n’est plus que "entre trois et 20 minutes après le début de l’étude manuelle" que le flux est peuplé à plus de 50 % de vidéos sur la santé mentale. "Le système de recommandation de TikTok n'a en soi pas été conçu pour produire cette spirale de contenus dépressifs", explique Katia Roux. "Mais ce qu'on montre dans notre étude, c'est que si de jeunes utilisateurs ou utilisatrices montrent un intérêt pour les contenus relatifs à la santé mentale, c'est à ce type de contenus que le système les associera, pour optimiser leur participation", c’est-à -dire les faire rester plus longtemps sur l'appli.
Certains répondants à l’enquête expliquent donc que l’irruption de vidéos, non sollicitées, qui évoquent ces sujets, peuvent aggraver l’anxiété. D’autant plus qu’une quantité non-négligeable de vidéos recommandées "idéalisent, banalisent voire encouragent le suicide". Des psychologues consultés par l'ONG ont corroboré les résultats de l'étude. Selon Katia Roux, "cela a un impact dans la vie réelle : on considère que ces interférences avec les pensées et les émotions d'une personne constituent une atteinte à la liberté de penser et au droit à la santé". Cette étude est presque indissociable du second rapport publié par Amnesty International ce mardi 7 novembre, et qui "montre que le modèle économique de TikTok est intrinsèquement abusif et privilégie la participation pour conserver l’attention du public". "TikTok doit absolument changer son modèle de développement économique et aller vers un modèle respectueux des droits humains", affirme Katia Roux. Cela signifie en particulier ne plus se baser sur des déductions d'un algorithme, mais sur les choix volontaires des utilisateurs et des utilisatrices.
0 Commentaire