Pourquoi l’algorithme TikTok a-t-il été dénoncé par Amnesty International ?

 Selon Amnesty International, TikTok menace les jeunes à des risques pour la santé mentale

 


L'algorithme de recommandation de TikTok a largement contribué à son succès mondial. Mais aujourd'hui, cet algorithme est condamné par Amnesty International, qui vient de publier deux études sur le fonctionnement des réseaux sociaux. En un mot, l'ONG affirme que le flux « For You » de TikTok pousse les enfants et les adolescents vers des contenus dangereux liés à la santé mentale.

L’une des nouveautés apportées par TikTok par rapport à ses concurrents est que son algorithme principal prend principalement en compte les contenus qui intéressent les utilisateurs et leurs abonnements. Lorsque l’on s’intéresse au sport ou à la cuisine, cela peut être une bonne chose. Mais selon Amnesty International, lorsqu’une personne s’inquiète de sa santé mentale, les choses peuvent prendre une tout autre tournure.

« Les résultats d’une enquête technique menée  avec nos partenaires – l’Algorithmic Transparency Institute (National Conference on Civil Rights) et AI Forensics – montrent que les enfants et les adolescents voient comment le contenu sur la santé mentale sur  « For You » de la plateforme se transforme rapidement en un « « spirale » de contenus potentiellement dangereux, notamment des vidéos idéalisant et encourageant les pensées dépressives, l’automutilation et le suicide », explique l’ONG.
 
Dans le cadre de cette recherche, Amnesty International a réalisé des simulations avec des comptes automatisés, représentatifs de ceux d'enfants de 13 ans.
Au bout de cinq à six heures, « près d’une vidéo sur deux liée à la santé mentale et potentiellement dangereuse était 10 fois plus forte que le nombre affiché pour les comptes déclarant ne pas être intéressés par ce sujet ». Et ce phénomène est encore plus marquant lorsque ce compte examine personnellement des vidéos liées à la santé mentale.

Lisa Dittmer, chercheuse à Amnesty International, décrit une conception « manipulatrice et addictive » qui vise à retenir l'attention des utilisateurs le plus longtemps possible. Et selon elle, l’algorithme de TikTok « met en danger les enfants et les jeunes  ayant  des problèmes de santé mentale ».

Rappelons qu’en Europe, pour se conformer au DMA, TikTok a procédé à des modifications dans ses opérations. Les recommandations personnalisées (celles  dénoncées par Amnesty) sont devenues facultatives. Et les utilisateurs peuvent choisir un flux « Pour vous » qui ne prend plus en compte les données personnelles mais uniquement les contenus populaires dans leur lieu de résidence.

- Amnesty International dénonce l'algorithme « For You » de TikTok.
- L'ONG accuse les réseaux sociaux d'entraîner les utilisateurs dans une spirale lorsqu'ils s'intéressent à des contenus liés à la santé mentale.
- En Europe, pour respecter le DMA, TikTok vous a permis de désactiver ces recommandations personnalisées.