Les algorithmes ne sont pas neutres
Les réseaux sociaux comme TikTok, Instagram, YouTube ou X ne nous montrent pas des contenus au hasard. Ils s’appuient sur des algorithmes désignés pour capter notre attention. Plus un contenu génère de réactions, plus il est mis en avant. Et ce sont souvent les vidéos polémiques, extrêmes ou chargées en émotions qui créent cet engagement.
Ce système profite aux discours les plus choquants. L’outrance attire, choque, fait parler. Les utilisateurs s’enferment alors dans des bulles de confirmation : ils ne voient que des contenus qui vont dans leur sens. Petit à petit, ces recommandations renforcent leurs convictions, les orientent vers des idées toujours plus extrêmes.
Quand l’extrême droite surfe sur l’algorithme
Les mouvements d’extrême droite ont rapidement compris le fonctionnement des réseaux. Ils ont adapté leur communication pour correspondre aux codes de la génération connectée : humour, memes, provocations, détournements. Le tout avec un fond idéologique assumé : anti-migrants, anti-médias, anti-élites.
Sur YouTube ou X, de nombreux influenceurs revendiquent une liberté de ton. Mais derrière les blagues et les anecdotes de vie se cachent souvent des messages très politisés. Leurs vidéos, virales, permettent de normaliser des idées racistes, sexistes ou complotistes sans en avoir l’air.
Des contenus calibrés pour percer
Pour maximiser la visibilité, ces créateurs utilisent les techniques du référencement naturel (SEO). Titres provocateurs, descriptions optimisées, miniatures accrocheuses… Tout est pensé pour passer devant dans les suggestions. Même si le contenu est toxique.
Les jeunes, ultra-connectés, sont les premières cibles. Ils se tournent vers ces vidéos car elles parlent leur langage, utilisent leurs codes. Et ils finissent par y croire. Les algorithmes renforcent alors leur exposition à ces contenus, créant un effet boule de neige.
Quand la radicalisation devient virale
Ce phénomène est loin d’être virtuel. Des études ont montré qu’une exposition répétée à des contenus radicaux peut modifier la perception de la réalité. Et conduire certaines personnes à passer à l’action. C’est ainsi que des actes violents peuvent être inspirés par des discours vus en ligne.
Sur certains forums ou dans les commentaires, des internautes jouent la carte du « troll ». Ils testent les limites, lancent des propos extrêmes sous couvert d’humour. C’est une stratégie connue pour imposer les thèmes de l’extrême droite dans les discussions publiques.
Des mesures de régulation encore timides
En février 2024, l’Union européenne a lancé le Digital Services Act pour tenter de mieux encadrer les plateformes. L’idée : plus de transparence sur les algorithmes, plus de responsabilité pour les contenus mis en avant. Mais les mesures tardent à s’appliquer concrètement.
Comment résister ?
Le premier pas, c’est d’apprendre à reconnaître ces mécanismes. Comprendre que ce qu’on voit sur TikTok ou YouTube ne reflète pas la réalité, mais des choix algorithmiques. Il est aussi essentiel de développer son esprit critique, et de varier ses sources d’information.
Enfin, pour celles et ceux qui produisent du contenu, il faut réfléchir aux responsabilités éthiques liées à la création. Éviter de propager la haine, ne pas normaliser la violence, même au nom du buzz.