Comment est-il possible de laisser passer des contenus qui poussent au suicide des jeunes de moins de 13 ans ? Cela ne peut être dû au hasard, car il est très simple en informatique d’interdire ce genre de diffusion. Il suffit de poster des contenus qui vont contre la Doxa du Covid-19 pour voir ces vidéos censurées immédiatement. Comment se fait-il que des contenus extrêmement dangereux qui poussent au suicide ou au déséquilibre alimentaire… ne puissent pas être retirés facilement et rapidement du Net ? De surcroît, on ne peut pas demander aux parents de surveiller le comportement de leurs adolescents sur les smartphones car ils travaillent, ils n’ont pas que ça à faire. Le seul moyen de se débarrasser de cette menace est de l’interdire.
Il suffit de s’inscrire sur TikTok pour comprendre l’extrême dangerosité de cette application, elle est très indicative. Au minimum, c’est une perte de temps considérable, ce qui est déjà très grave. Maintenant que l’on sait que le contenu est dangereux, qu’il crée des déséquilibres psychiques chez les plus jeunes -sachant que ces derniers sont inscrits massivement sur cette plate-forme-, qu’attendent les autorités pour réagir ?
Les appels à interdire TikTok aux États-Unis se font de plus en plus entendre. Les chefs de gouvernement tentent d’éloigner la plate-forme populaire de vidéo sociale appartenant à la Chine des écoles, des fonctionnaires, voire d’États entiers, au motif que les données des utilisateurs pourraient se retrouver entre de mauvaises mains.
La confidentialité des données, cependant, pourrait être moins inquiétante que la puissance de l’algorithme de TikTok. Surtout si vous êtes parent.
Une étude récente a révélé que lorsque les chercheurs créaient des comptes appartenant à des jeunes fictifs de 13 ans, ils étaient rapidement inondés de vidéos sur les troubles de l’alimentation, l’image corporelle, l’automutilation et le suicide.
Si cela vous semble familier, une enquête du Wall Street Journal en 2021 a révélé que TikTok oriente les téléspectateurs vers des contenus dangereux. TikTok a depuis renforcé les contrôles parentaux et promis un algorithme plus équilibré, mais la nouvelle étude suggère que l’expérience de l’application pour les jeunes adolescents a peu changé.
Ce que les adolescents voient sur les réseaux sociaux peut les affecter négativement psychologiquement. De nombreuses recherches le confirment. La preuve la plus simple peut être trouvée dans ma chronique précédente sur les adolescents qui ont développé des tics physiques après avoir regardé des vidéos TikTok répétées de personnes présentant un comportement de type syndrome de la Tourette.
Une porte-parole de TikTok a déclaré que la société disposait d’une équipe de plus de 40 000 personnes modérant le contenu. Au cours des trois derniers mois de 2022, TikTok a déclaré avoir supprimé environ 85 millions de messages jugés en violation de ses directives communautaires, dont 2,8 % étaient des contenus sur le suicide, l’automutilation et les troubles de l’alimentation. Il envisage également la suppression du contenu signalé par les utilisateurs. “Nous sommes ouverts aux commentaires et à l’examen, et nous cherchons à nous engager de manière constructive avec nos partenaires”, a ajouté la porte-parole.
Captures d’écran de vidéos TikTok, hochant la tête à l’automutilation, compilées par le Center for Countering Digital Hate.
Selon le Pew Research Center, les deux tiers des adolescents américains utilisent TikTok, et 16 % de tous les adolescents américains disent qu’ils y sont presque constamment. L’utilisation fréquente des médias sociaux par les enfants, ainsi que le potentiel des algorithmes pour attirer les adolescents dans de dangereux terriers de lapin, est un facteur dans les nouvelles recommandations de l’American Psychological Association pour l’utilisation des médias sociaux par les adolescents.
Le groupe a déclaré cette semaine que les parents devraient surveiller le défilement des médias sociaux de leurs jeunes enfants et surveiller les utilisations gênantes. L’APA exhorte également les parents et les entreprises technologiques à être extrêmement vigilants quant aux contenus qui encouragent les enfants à se faire du mal.
“Toutes les 39 secondes”
Le Center for Countering Digital Hate, une organisation à but non lucratif qui lutte contre la propagation de la haine et de la désinformation en ligne, a testé ce que les adolescents voient sur TikTok. En août dernier, des chercheurs ont créé huit comptes TikTok pour donner l’impression qu’ils appartenaient à des jeunes de 13 ans aux États-Unis, au Royaume-Uni, au Canada et en Australie. Pendant 30 minutes, les chercheurs derrière les comptes se sont brièvement arrêtés sur toutes les vidéos que la page For You de la plateforme leur a montrées sur l’image corporelle et la santé mentale, et ont tapoté le cœur pour les aimer.
TikTok a presque immédiatement recommandé des vidéos sur le suicide et les troubles alimentaires, ont déclaré les chercheurs. Des vidéos sur l’image corporelle et la santé mentale apparaissaient sur les pages For You des comptes toutes les 39 secondes, ont-ils ajouté.
Captures d’écran de vidéos TikTok, faisant un signe de tête aux préoccupations liées à l’image corporelle et aux idées suicidaires, compilées par le Center for Countering Digital Hate.
Après que les chercheurs ont publié leurs découvertes, de nombreuses vidéos qu’ils ont signalées ont disparu de TikTok. De nombreux comptes qui ont publié le matériel restent. Ces comptes incluent d’autres vidéos qui font la promotion de régimes restrictifs et discutent de l’automutilation et du suicide.
TikTok supprime le contenu qui enfreint clairement ses directives, par exemple en faisant directement référence au suicide. Cependant, les vidéos où les gens décrivent leurs propres sentiments suicidaires pourraient ne pas être considérées comme une violation et ne relèveraient pas de l’examen minutieux des modérateurs. Ils pourraient même être utiles à certaines personnes. Pourtant, les psychologues pour enfants disent que ceux-ci peuvent aussi avoir un effet nocif.
Les dirigeants de TikTok ont déclaré que la plate-forme peut être un lieu de partage de sentiments sur des expériences difficiles et citent des experts qui soutiennent l’idée que faire face activement à des émotions difficiles peut être utile pour les téléspectateurs et les affiches. Ils ont déclaré que TikTok visait à supprimer les vidéos qui promeuvent ou glorifient l’automutilation tout en autorisant le contenu éducatif ou de récupération.
La société a déclaré qu’elle ajuste continuellement son algorithme pour éviter de recommander à plusieurs reprises une gamme étroite de contenus aux téléspectateurs.
‘Triste et seul’
Le Center for Countering Digital Hate a partagé avec moi ses recherches complètes, y compris des liens vers 595 vidéos que TikTok a recommandées aux faux comptes d’adolescents. Il a également fourni des bobines contenant toutes les vidéos, dont certaines ne sont plus sur le site. J’ai également regardé d’autres contenus sur les comptes avec des vidéos signalées.
Au bout de quelques heures, j’ai dû m’arrêter. Si la série rapide de vidéos tristes me faisait me sentir mal, comment se sentirait un jeune de 14 ans après avoir regardé ce genre de contenu jour après jour ?
Un compte est dédié à la musique “triste et solitaire”. Une autre présente une adolescente qui pleure dans chaque vidéo, avec des déclarations sur le suicide. L’un est plein de vidéos tournées dans une chambre d’hôpital. Chacune des vidéos de l’hôpital contient du texte exprimant des pensées suicidaires, notamment : “Pour mon dernier tour, je vais devenir une déception”.
Captures d’écran de vidéos TikTok, faisant un signe de tête aux problèmes d’image corporelle et aux troubles de l’alimentation, compilées par le Center for Countering Digital Hate.
Les utilisateurs ont développé des moyens créatifs pour contourner les filtres de contenu de TikTok. Par exemple, étant donné que TikTok n’autorise pas le contenu faisant référence au suicide, les gens utilisent un son similaire tel que “sewerslide”, ou écrivez simplement “tentative” et laissez le reste à l’imagination du spectateur. Les créateurs de vidéos sur les troubles alimentaires ont également éludé les filtres de TikTok.
PARTAGE TES PENSÉES
Pensez-vous que les gens devraient pouvoir désactiver les algorithmes dans les médias sociaux ? Rejoignez la conversation ci-dessous.
Contrôler tout le contenu d’un service utilisé par plus d’un milliard d’utilisateurs mensuels n’est pas une tâche facile. Pourtant, il y a une différence entre éradiquer les contenus préjudiciables et les promouvoir.
“Si les entreprises technologiques ne peuvent pas éliminer cela de leurs plates-formes, ne créez pas d’algorithmes qui dirigeront les enfants vers ces informations”, a déclaré Arthur C. Evans Jr., directeur général de l’American Psychological Association.
Ce que les parents peuvent faire
Regardez ce que vos enfants regardent. Ariana Hoet, psychologue pédiatrique au Nationwide Children’s Hospital, recommande de demander à vos adolescents de vous montrer leur page Pour vous. Si vous repérez un contenu préjudiciable, cela indique qu’ils interagissent probablement avec ce type de contenu. Cela peut vous donner une ouverture pour entamer une conversation à ce sujet.
Configurez le jumelage familial. Les parents peuvent créer leur propre compte TikTok et utiliser le couplage familial de l’application pour restreindre le contenu inapproprié à l’âge et limiter le temps que leurs adolescents passent sur l’application.
Filtrez le flux. Les utilisateurs peuvent filtrer les vidéos contenant des mots ou des hashtags qu’ils ne souhaitent pas voir. Si le contenu continue de passer, les adolescents peuvent appuyer sur “pas intéressé”.
Actualisez le flux. Certains adolescents m’ont dit que leurs flux étaient devenus si problématiques qu’ils ont fermé leurs comptes et ont recommencé. Les adolescents peuvent désormais actualiser leur flux sans créer de nouveau compte. Encore une fois, ils doivent faire attention au contenu qu’ils aiment ou sur lesquels ils s’attardent, car de nouveaux trous de lapin se forment tout le temps.
— Pour plus de chroniques sur la famille et la technologie, des conseils et des réponses à vos questions technologiques les plus pressantes liées à la famille, inscrivez-vous à ma newsletter hebdomadaire .
Écrivez à Julie Jargon à [email protected]