Publication 18 septembre 2019

Que deviennent les réfugiés de « 8chan » ? Les conséquences inattendues de la fermeture des plateformes haineuses.

Quelques instants avant la fusillade de masse à El Paso, au Texas, le tireur a publié un message de quatre pages sur le forum 8chan, décrivant la pensée haineuse de la suprématie blanche qui a inspiré son crime et encourageant ses « frères » sur le site à partager largement son contenu. Les auteurs des fusillades de masse à Christchurch (Nouvelle-Zélande) et à Poway (Californie) avaient également publié des manifestes sur 8chan avant leurs attaques. Mais après la fusillade d’El Paso, la plateforme a enfin été fermée. Cet effort pour endiguer ce qui est clairement devenu un terrain propice à la haine est loin d’être une solution idoine. Certains s’inquiètent des conséquences involontaires de la migration des « réfugiés de 8chan » vers des espaces moins toxiques qu’ils pourraient aggraver, ou encore de leur radicalisation dans des réseaux plus dangereux. Ce mois-ci, SERIOUS.LINKS décrypte le débat sur la fermeture de 8chan et les implications de cette décision dans la lutte contre la haine en ligne.

Les origines de la hate-chan

8chan a été créé par Fredrick Brennan en 2013 comme une « alternative libre d’expression » à 4chan, un forum de discussion en ligne, qu’il jugeait devenu trop restrictif. 8chan était un espace marginal jusqu’en 2014, date à laquelle les partisans anti-féministes de GamerGate ont été bloqués sur 4chan et ont déménagé sur 8chan. Depuis le forum a été un terrain fertile pour de nombreuses formes de sectarisme et de conspirationnisme. À partir de 2015, 8chan est dirigé aux Philippines par Jim Watkins. Brennan est resté administrateur jusqu’en 2018, mais il est parti depuis et a regretté la création du site. Watkins fait actuellement des efforts pour remettre le forum en ligne.

Les contenus haineux poussés dans l’obscurité

Jim Watkins espère que le site sera bientôt disponible, expliquant qu’il est « volontairement hors ligne« . En effet, ce n’est pas le gouvernement qui a décidé de fermer le site, mais des entreprises privées qui ont décidé de retirer leurs services. Après la fusillade, le service de cybersécurité Cloudflare a révoqué son engagement, de même qu’un deuxième fournisseur de sécurité, Epik. Sans une solution d’hébergement stable, le site est vulnérable aux attaques de cybersécurité. De plus, la société qui contrôle l’enregistrement du nom de domaine du site, Tucows, a désactivé l’adresse web. Matthew Prince, directeur général de Cloudflare, a expliqué que l’environnement de l’extrémisme violent ne devait pas se propager.

Jim Watkins a été également cité à témoigner devant le Congrès américain. Il a proposé d’ajouter de nouvelles fonctionnalités au forum pour le rendre plus “acceptable”.  Par exemple, lors d’un état d’urgence (comme après l’affichage d’un manifeste dangereux), un mode « lecture seule » pourrait être mis en place, ou un mode “restreint », qui rendrait le site inaccessible et interdirait aux utilisateurs de poster ou partager des fichiers.

Paradoxalement, l’une des motivations de la maintenance de la plateforme est en fait d’ordre sécuritaire. Il est beaucoup plus facile d’identifier et de traiter les contenus haineux sur le Web que lorsqu’ils se trouvent sur des serveurs à l’étranger ou sur le Dark Web – où de nombreux utilisateurs de 8chan se sont déportés immédiatement après le démantèlement de leur site. Le Dark Web — la région d’Internet qui n’est pas visible pour les moteurs de recherche et qui nécessite l’utilisation d’un navigateur anonyme pour être accessible — est le foyer de comportements illicites comme le trafic de drogue et les opérations de contrebande. Elle a aussi permis aux contenus haineux de prospérer car les propriétaires de sites Web peuvent cacher leur emplacement aux autorités.

Le Dark Web et les réseaux peer-to-peer (réseaux dans lesquels chaque ordinateur devient lui-même un serveur), où de nombreux  » réfugiés 8chan  » cherchent à poursuivre leurs discussions, posent aussi d’autres risques. Par exemple, certains membres de 8chan se sont réunis sur le réseau peer-to-peer Zeronet, qui héberge également de la pédopornographie. Entre-temps, la transition des utilisateurs de 8chan vers d’autres plateformes web — par exemple, leur retour à 4chan — soulève la crainte qu’ils augmenteraient la toxicité de ces derniers.

Les effets « boomerang » des interdictions

Des études ont montré que les groupes haineux en ligne résistent bien aux interdictions et que ces interdictions peuvent avoir d’autres conséquences non souhaitables. Comme une infection, ces groupes ont tendance à migrer d’un réseau à l’autre, gardant et parfois même élargissant leurs connexions dans le processus. Ce phénomène a été mis en évidence par une étude récente dans le journal Nature, menée par des chercheurs des universités George Washington et Miami. Dans leur étude, « Hidden resilience and adaptive dynamics of the global online hate ecology », les chercheurs ont suivi la présence de groupes racistes sur Facebook et le réseau russe VKontakte, examinant leurs mouvements à des moments clés. Ils ont découvert qu’après leur interdiction par Facebook, de nombreux membres des groupes se sont installés sur VKontakte. Lorsqu’ils ont finalement été écartés de VKontake, beaucoup sont retournés sur Facebook, adaptant leurs noms à l’aide de caractères cyrilliques pour se cacher de la détection algorithmique. Ces expériences de migration apportent souvent de nouvelles stratégies de résilience. Une étude réalisée en 2015 sur les groupes haineux dans les pages de subreddit a montré des effets similaires : l’interdiction a poussé ces communautés à migrer ailleurs et à essayer d’échapper à la détection en modifiant leurs noms et vocabulaire.

L’efficacité de l’interdiction en tant qu’approche de modération reste incertaine, et nous ne pouvons donc pas savoir avec certitude quel sera le résultat de la fermeture de 8chan sur le Web. Bien sûr, la résilience inévitable des réseaux haineux ne justifie pas qu’on les laisse se construire. Mais il semble que des pratiques de modération plus stratégiques soient nécessaires (les auteurs de la récente étude sur l’écologie de la haine en ligne présentent plusieurs suggestions, à l’instar de : fermer des réseaux plus petits pour empêcher la formation de groupes plus importants, ou interdire une petite fraction d’internautes au hasard dans un réseau haineux).

Cela pourrait également être un appel en faveur d’une révision du rôle des pouvoirs publics sur la question. À l’heure actuelle, ce sont de facto les acteurs privés comme Cloudflare qui ont le dernier mot sur ce qui reste en ligne et ce qui est retiré. Certes, des questions demeurent et d’autres travaux sont nécessaires pour éclairer ces espaces obscurs et profonds de l’Internet.


Sur le même sujet