Comment les réseaux sociaux poussent vers l’extrême droite ?

Les plateformes sociales façonnent la façon dont nous pensons, consommons l’info et agissons. Mais leur fonctionnement algorithmique a un effet pervers : il favorise les discours radicaux, polarisants, et souvent proches de l’extrême droite. Un mécanisme qui touche en particulier les jeunes.

Les algorithmes ne sont pas neutres

Les réseaux sociaux comme TikTok, Instagram, YouTube ou X ne nous montrent pas des contenus au hasard. Ils s’appuient sur des algorithmes désignés pour capter notre attention. Plus un contenu génère de réactions, plus il est mis en avant. Et ce sont souvent les vidéos polémiques, extrêmes ou chargées en émotions qui créent cet engagement.

Ce système profite aux discours les plus choquants. L’outrance attire, choque, fait parler. Les utilisateurs s’enferment alors dans des bulles de confirmation : ils ne voient que des contenus qui vont dans leur sens. Petit à petit, ces recommandations renforcent leurs convictions, les orientent vers des idées toujours plus extrêmes.

Quand l’extrême droite surfe sur l’algorithme

Les mouvements d’extrême droite ont rapidement compris le fonctionnement des réseaux. Ils ont adapté leur communication pour correspondre aux codes de la génération connectée : humour, memes, provocations, détournements. Le tout avec un fond idéologique assumé : anti-migrants, anti-médias, anti-élites.

Sur YouTube ou X, de nombreux influenceurs revendiquent une liberté de ton. Mais derrière les blagues et les anecdotes de vie se cachent souvent des messages très politisés. Leurs vidéos, virales, permettent de normaliser des idées racistes, sexistes ou complotistes sans en avoir l’air.

Des contenus calibrés pour percer

Pour maximiser la visibilité, ces créateurs utilisent les techniques du référencement naturel (SEO). Titres provocateurs, descriptions optimisées, miniatures accrocheuses… Tout est pensé pour passer devant dans les suggestions. Même si le contenu est toxique.

Les jeunes, ultra-connectés, sont les premières cibles. Ils se tournent vers ces vidéos car elles parlent leur langage, utilisent leurs codes. Et ils finissent par y croire. Les algorithmes renforcent alors leur exposition à ces contenus, créant un effet boule de neige.

Quand la radicalisation devient virale

Ce phénomène est loin d’être virtuel. Des études ont montré qu’une exposition répétée à des contenus radicaux peut modifier la perception de la réalité. Et conduire certaines personnes à passer à l’action. C’est ainsi que des actes violents peuvent être inspirés par des discours vus en ligne.

Sur certains forums ou dans les commentaires, des internautes jouent la carte du « troll ». Ils testent les limites, lancent des propos extrêmes sous couvert d’humour. C’est une stratégie connue pour imposer les thèmes de l’extrême droite dans les discussions publiques.

Des mesures de régulation encore timides

En février 2024, l’Union européenne a lancé le Digital Services Act pour tenter de mieux encadrer les plateformes. L’idée : plus de transparence sur les algorithmes, plus de responsabilité pour les contenus mis en avant. Mais les mesures tardent à s’appliquer concrètement.

Comment résister ?

Le premier pas, c’est d’apprendre à reconnaître ces mécanismes. Comprendre que ce qu’on voit sur TikTok ou YouTube ne reflète pas la réalité, mais des choix algorithmiques. Il est aussi essentiel de développer son esprit critique, et de varier ses sources d’information.

Enfin, pour celles et ceux qui produisent du contenu, il faut réfléchir aux responsabilités éthiques liées à la création. Éviter de propager la haine, ne pas normaliser la violence, même au nom du buzz.

Actualités

Abonne toi à la Newsletter

Acquisition > Newsletter : Sidebar