Deepfake : une technologie de trucage vidéo inquiétante

Cynthia
18/06/19
Cynthia Leblanc

Tout le monde connait les fakes news, ces informations complètement fausses. Elles risquent de prendre de plus en plus d'ampleur avec l'émergence des deepfakes, des vidéos truquées qui permettent de faire dire n'importe quoi à n'importe qui. Explications.

Mark Zuckerberg victime d'une vidéo Deepfake

J'aimerais pouvoir vous dire que notre mission est de connecter les gens entre eux, mais ce n'est pas le cas. Nous voulons simplement contrôler vos comportements futurs. Plus vous vous exprimez, plus nous vous possédons.

Ces propos exprimés dans la vidéo ci-dessous par Mark Zuckerberg sont évidemment complètement faux, et sont issus d'un deepfake :

View this post on Instagram

[NEW RELEASE] ‘I wish I could...’ (2019) Mark Zuckerberg, founder of @facebook reveals the ‘truth’ about privacy on #facebook . This artwork is part of a series of AI generated video works created for ‘Spectre’ - an immersive exploration of the digital influence industry, technology and democracy. [link in bio]. Art by Bill Posters & @danyelhau for @sheffdocfest @sitegallery #artnotmisinformation #thefutureisntprivate #deepfakes #deepfake #spectreknows #surveillancecapitalism #privacy #democracy #dataism #contemporaryartwork #digitalart #generativeart #newmediaart #codeart #markzuckerberg #artivism #contemporaryart

A post shared by Bill Posters (@bill_posters_uk) on Jun 13, 2019 at 5:18am PDT

Définition du DeepFake

Le mot deepfake est un mot valise faisant référence au Deep Learning (un type d'IA basée sur l'apprentissage) et aux Fake News, pour des raisons évidentes.

Le principe du deepfake est aussi simple que terrifiant : il consiste à remplacer sur une vidéo le visage d'une personne par celui d'une autre, et permet aussi par extension de modifier les mouvements de sa bouche afin de lui faire dire exactement ce que l'on souhaite.

On peut donc avec cette techno faire dire des choses à des personnalités connues pour s'amuser (comme ici avec Jon Snow) ou bien pour manipuler l'opinion publique.

Quand cette technologie est utilisée avec le visage de personnalités, des imitateurs peuvent produire la partie sonore du nouveau discours ou on peut utiliser des outils de synthèse vocale.

Fabriquer une vidéo Deepfake est d'une facilité déconcertante

Des chercheurs des universités de Stanford et Princeton, d'Adobe Research et de la Max Planck Institute for Informatics ont récemment mis au point un système qui permet de générer une vidéo deepfake afin de modifier ce que dit une personne ... à l'aide d'un simple fichier texte.

Ils ont expliqué dans un communiqué leur méthode.
En synthèse :

  • les phonèmes sont détachés de la vidéo originelle
  • et un modèle 3D est créé sur le bas du visage pour pouvoir ajouter les expressions faciales souhaitées

Cette opération permet de supprimer des mots dans une phrase, d'en ajouter et de les modifier pour un résultat absolument terrifiant :

Les stars, premières cibles des deepfakes sur Instagram et YouTube

Mark Zuckerberg n'est évidemment pas le premier a être ciblé par ce type de vidéo truquée.

Kim Kardashian, Barack Obama, ou encore Morgan Freeman ont fait l'objet de montages. Plusieurs vidéos de ce type peuvent être consultées sur le compte Instagram de @bill_posters_uk.

Deepfake : une technologie de trucage vidéo inquiétante

Le commentaire de fetishiasian ci-dessus en est le parfait exemple :

Attendez, est-ce que c'est censé être faux ou vrai ?
Je ne sais pas du tout

Les Fake News, fléau du XXIème siècle

Les Fake News ont déjà tendance à se propager plus vite que les vraies informations et à faire beaucoup de mal. Dans ce contexte, des vidéos aussi bien truquées ne vont faire qu'aggraver la désinformation dont nous sommes déjà tous victimes.

Les chercheurs derrière l'outil présenté ci-dessus ont ajouté :

Nous reconnaissons que les mauvais acteurs pourraient utiliser de telles technologies pour falsifier des déclarations personnelles et calomnier des personnalités.
Nous sommes préoccupés par une telle déception et une mauvaise utilisation.

On ne peut que leur donner raison, et il va falloir être de plus en plus vigilant en particulier au sujet de vidéos diffusées sur les réseaux sociaux...

Cynthia
Cynthia  54 articles
  Laisse un commentaire
Avatar