Publication 10 juillet 2019

Les deepfakes : un défi pour nos démocraties

Il y a eu récemment une foule de discussions au sujet des deepfakes, ces fausses vidéos réalistes qui permettent de faire dire ou faire n’importe quoi à n’importe qui. Pendant qu’elles alimentent les craintes sur la fin de notre capacité à distinguer la vérité de la fiction, SERIOUS.LINKS en profite pour (1) démystifier la technologie derrière ce phénomène, (2) évaluer les risques qu’elle pose et (3) faire connaître quelques initiatives déjà en place pour y faire face.

Qu’est-ce qu’un deepfake ?

Un deepfake est une vidéo ou image altérée grâce à l’intelligence artificielle. À titre d’exemple, le 24 mai dernier, une vidéo truquée de la présidente de la Chambre des représentants aux États-Unis, Nancy Pelosi, dans laquelle elle semble perturbée ou ivre, a trompé des millions de personnes alors qu’elle a juste été ralentie. Facebook, après avoir refusé de retirer la vidéo, a reçu une sorte de méta-réponse sous forme d’une vidéo deepfake de Mark Zuckerberg lui-même. Jordan Peele a créé la célèbre vidéo modifiée d’Obama en 2018.

Les gens manipulent les médias depuis longtemps et la technologie des deepfakes n’est pas nouvelle. Mais la technologie devient de plus en plus sophistiquée. Comme cela a été prouvé récemment par des chercheurs de Samsung, des deepfakes peuvent être réalisés à partir d’une seule image. En même temps, les moyens de fabriquer des deepfakes deviennent de plus en plus bon marché (cédant la place au « cheapfake » comme celle de Nancy Pelosi) et les tentatives de plus en plus omniprésentes.

Comment cela fonctionne-t-il ?

Le mot deepfake est la contraction des termes « deep learning » (« apprentissage profond ») et « fake » (« truqué »). La technologie s’appuie sur l’intelligence artificielle, plus précisément des « réseaux adversatifs générateurs » ou GANs. Il s’agit de deux algorithmes d’apprentissage qui sont formés pour reproduire un modèle (tel que le visage d’un président). Ensuite, ces deux réseaux jouent au chat et à la souris : un premier réseau (« le générateur ») produit une fausse vidéo à partir d’un référentiel d’images réelles tandis que le second réseau (« le discriminateur ») essaie de distinguer les images réelles de la reproduction fausse. Ce processus itératif se poursuit jusqu’à ce que le générateur soit capable de faire croire au discriminateur que les images sont réelles.

Il existe bien sûr d’autres stratégies pour créer des deepfakes :

Quel est le risque ?

Voit-on l’érosion de la vérité ? Beaucoup craignent que la persistance de ces outils nuise davantage à la confiance dans le journalisme et l’autorité démocratique. Raison pour laquelle les parlementaires américains se sont réunis le mois dernier pour discuter des mesures possibles afin de lutter contre les deepfakes.

Ils s’inquiètent des conséquences psychologiques que cela pourrait entraîner, comme une apathie à long terme à l’égard de la vérité. En ce sens, l’idée que le public ne puisse pas croire toutes les images qu’il voit est une arme utile pour les gouvernements autoritaires et totalitaires.

Une des menaces imminentes de l’usage de ces vidéos est notamment leur déploiement pour “museler” des femmes.

Que peut-on faire ?

Beaucoup de journalistes et défenseurs des droits de l’Homme sont déjà équipés d’outils d’enquête pour repérer ces « trucages ». Des pratiques de renseignement de sources ouvertes (en anglais : open source intelligence, OSINT), des renseignements obtenus par une source d’information publique, leur permettent de déterminer la véracité des images et la crédibilité des sources trouvées en ligne. Des groupes comme Bellingcat (un collectif international indépendant de chercheurs, d’enquêteurs et de journalistes-citoyens) et le projet WeVerify (Wider and Enhanced Verification for You) sont à l’avant-garde de ce travail.

Certains se défendent avec des outils basés sur les mêmes techniques d’apprentissage profond que celles qui ont été utilisées pour créer les deepfakes en premier lieu.

Sans parler de l’autorégulation. David Doermann, informaticien et directeur de l’Artificial Intelligence Institute, a suggéré que les plateformes vérifient les médias au lieu de les télécharger instantanément, comme c’est le cas pour les logiciels malveillants. Ou de la législation. La semaine dernière, le « revenge porn » est devenu un délit en Virginie aux États-Unis.

La capacité d’identifier les deepfakes pourrait devenir bientôt une forme essentielle d’éducation aux médias et au numérique. Cependant, il n’y a pas de solution miracle. Il s’agit d’une course parce que la technologie évolue avec la capacité de la déchiffrer.


Sur le même sujet