Une nouvelle étude du Wall Street Journal met en lumière les dangers de l’algorithme TikTok. Grâce à des robots, avec différentes personnalités et comportements, ils ont pu analyser son fonctionnement. 

Tout d’abord, il faut savoir que l’algorithme de TikTok est l’un des plus puissant actuellement. Si tu es un utilisateur, tu as certainement vu que tu pouvais passer des heures sur l’application sans t’en rendre compte. Selon TikTok, l’algorithme analyse des éléments tels que : ta langue, tes commentaires, tes likes, ta position géographique, tes abonnements, etc.
En soi, comme la plupart des réseaux sociaux ! 

Cependant, d’après les analyses du Wall Street Journal, c’est surtout le temps passé sur une vidéo qui est pris en compte. L’objectif de la plateforme est que tu restes le plus longtemps connecté. 

 

«À chaque fois que vous vous arrêtez sur une vidéo, que vous hésitez, ou que vous la visionnez une nouvelle fois, l’algorithme vous piste», précise le Wall Street Journal.

Comment ont-ils pu arriver à ces conclusions ?

Le journal a programmé plusieurs robots avec des caractéristiques différentes. Par exemple : @kentucky_96, âgés de 24 ans, avec les caractéristiques : tristes et dépression ou encore virginia_13, âgée de 13 ans et fan de yoga. Mais “leurs intérêts” (tristesse, yoga, etc.) n’ont jamais été inscrit dans l’application.. ils ont été découvert par l’algorithme.

 

(l’expérience en vidéo- Wall Street Journal)

Comment ça marche ?

Lors de leur première connexion, les robots du Wall Street Journal ont eu accès à une tonne de contenus variés et populaires de la plateforme. Pour les robots, comme pour toi, sur la plateforme, ces premiers contenus aident l’algorithme à te catégoriser. Après quelques minutes, seulement, l’algorithme comprend tes intérêts. Il va alors te proposer des vidéos de plus en plus ciblées et de moins en moins populaires. 

Concrètement, si tu aimes les chiens et que tu t’attardes sur ces vidéos, l’algorithme va t’en montrer de plus en plus. Jusqu’à même comprendre ta race préférée pour ensuite te montrer une majorité de contenu sur ces chiens. 

#Dartiktok #sadnesstiktok

Dans ce cas, aucun souci ! Mais là où ça devient dangereux, c’est quand on s’intéresse au robot kentucky_96  avec les caractéristiques : dépression et tristesse. Pour le profil de Kentucky_96, après quelques minutes seulement, l’application a compris son penchant pour les vidéos tristes. Celui-ci a regardé un même contenu deux fois de suite où les hashtags, le nom de l’auteur ou encore la musique s’apparentaient à des mots tels que : Sadness, dépression, etc. C’est alors que l’algorithme va propulser d’autres vidéos de ce type pour affirmer son intérêt. Et Kentucky_96 finira donc par voir 93% de vidéos tristes et dépressives.

Tu peux donc te retrouver dans un « darktiktok » avec une majorité de contenus tristes qui proviennent des recommandations de l’algorithme. Il est alors très dur de se sortir de ces contenus et ce même si la société ByteDance, qui détient TikTok, ait affirmé que 7% des vidéos mises en avant aidaient les jeunes à découvrir autre chose, notamment à travers les vidéos populaires. 

Et c’est bien ça le problème. Si les jeunes qui ont déjà une tendance à regarder des contenus tristes, se retrouvent à swiper entre des vidéos dépressives 1 à 2h par jour… On doute que ça aide leur mental. 

Nous avons donc plutôt affaire à une application qui prend en compte ton comportement plutôt que tes intérêts. L’algorithme te montre des contenus qui captent ton attention et te font rester plus longtemps sur la plateforme… pas forcément des vidéos sur les thématiques qui te plaisent vraiment!