Publication 5 juillet 2017

Lutte contre les contenus haineux, ça bouge au niveau européen

Alors que la diffusion des discours de haine sur Internet devient un problème de société majeur, l'Union européenne, ses États membres et les acteurs de la tech ont décidé, depuis quelques mois, d'accélérer les actions visant à lutter contre ce phénomène.

Du côté de l’Union européenne.

En 2016, elle avait conclu avec Facebook, Twitter, Microsoft et YouTube un Code de conduite dont l’un des principaux objectifs était de réduire à 24h la durée entre le signalement d’un contenu et son traitement. Un an plus tard, la Commission salue certains progrès (Lire le rapport). Notons qu’un projet de loi déposée par les ministres européens le 23 mai propose de généraliser ces principes (En savoir plus). Cependant, ce texte demeure encore vague et nécessite la validation du Parlement pour être applicable. De façon générale, l’UE défend une approche basée sur le contrôle a posteriori des contenus et l’autorégulation par les plateformes. Elle compte également sur des collaborations avec la société civile et mène, à ce titre, plusieurs appels à projets qui contribuent à la mise en œuvre du Code de conduite précité.

Du côté des Etats membres.

La France, l’Allemagne et le Royaume-Uni,  notamment sous l’impact des récents attentats, présentent un positionnement plus répressif. L’Allemagne a adopté le 3 juillet une loi lui permettant de sanctionner toutes plateformes n’ayant pas supprimé une vidéo terroriste en moins de 24h par une amende de 50 millions d’euros (Lire l’article). Le 14 juin, la France et le Royaume-Uni ont présenté un plan d’action commun et espère obtenir le soutien du G7. Ce plan vise notamment à développer des moyens techniques pour « automatiser la détection » et « le retrait de contenus terroristes« , et « promouvoir le référencement » des contenus positifs  (En Savoir Plus). Mais des interrogations demeurent : au-delà de la difficulté technique inhérente à un contrôle intégrale des contenus toxiques, les deux pays n’ont pas donné de définition claire d’un « contenu terroriste ». Ce flou inquiète les défenseurs de la liberté d’expression qui craignent un risque de censure excessive. Néanmoins, nous pouvons saluer le fait que cette problématique est désormais prise au sérieux au plus haut niveau de l’Etat.

Du côté des principaux concernés.

Face à cette pression, mais aussi certainement pour prévenir une législation à venir trop répressive, les plateformes du numérique ont montré leur bonne volonté en présentant une série de mesures. Facebook va mobiliser l’intelligence artificielle pour détecter en amont les contenus terroristes, et prévoit d’accroitre son équipe de modérateurs (Lire l’article). Les mêmes techniques seront développées sur Instagram. De plus, l’entreprise lance la Online Civil Courage Initiative (OCCI) pour construire un contre-discours avec des ONG spécialisées. Google, via YouTube, investit aussi dans la reconnaissance automatique afin d’avertir les utilisateurs du caractère terroriste d’un contenu et désactiver les publicités associées. En parallèle, 50 associations supplémentaires vont rejoindre le programme Trusted Flaggers, canal prioritaire pour signaler des contenus. L’entreprise compte aussi renforcer le projet Redirect Method qui redirige l’utilisateur saisissant certains mots-clés comme « radicalisation » vers des sites de contre-propagande (En Savoir Plus). Enfin, les grands groupes de l’Internet vont initier un Forum mondial contre le terrorisme, dont le but est la recherche de solutions techniques dans une démarche collaborative avec la société civile, les start-up, les universitaires ou encore les organisations étatiques (Lire l’article).


Sur le même sujet