- Avis d’expert
Deepfakes : Comment ne pas se faire piéger par de fausses vidéos ?
- Digital
- Citoyenneté & Volontariat
Quel est le point commun entre une vidéo de Tom Cruise jouant au golf, une autre de Jean Dujardin incarnant James Bond et celle d’un duo musical inattendu entre Emmanuel Macron et Jean Castex sur un tube des années 80 ? Ces vidéos, plus ou moins réalistes, ont beaucoup circulé sur Internet et, pourtant, elles sont fausses ! Dans ce cas, il s’agit de vidéos divertissantes clairement annoncées comme falsifiées. Mais, ouvrons l'œil ! Les vidéos truquées au moyen de l’intelligence artificielle peuvent faire dire ou faire faire n’importe quoi à n’importe qui. Et elles pourraient bientôt envahir nos fils d’actu !
On les appelle les « deepfakes », les « hypertrucages », les « videotox », parfois même les « sextorsions ». Ces vidéos générées par l’intelligence artificielle se multiplient. Elles deviennent de moins en moins complexes à réaliser, si bien qu’elles sont parfois difficiles à détecter. Ewa Kijak, maître de conférences à l’université de Rennes 1 et chercheuse au laboratoire Irisa, et Jean-Luc Dugelay, professeur en sécurité numérique à EURECOM Sophia Antipolis, ont répondu à nos questions.
Qu’est-ce qu’un deepfake ?
Jean-Luc Dugelay, professeur en sécurité numérique à EURECOM Sophia Antipolis : "Le terme deepfake est un mot-valise qui fait référence au deep learning, c’est-à-dire l’apprentissage profond qui est un type d’intelligence artificielle, et à fake qui veut dire faux. Les Québécois le traduisent par « vidéos hyper truquées ». Il s'agit de fausses vidéos où le discours ou l'action d'un personnage ont été modifiés. Cette technique est très récente. On a commencé à en entendre parler sur Reddit (NDLR : forum de discussion américain). Au départ, c’était utilisé pour du revenge porn (NDLR : contenu sexuellement explicite diffusé en ligne sans le consentement de la personne) ou pour intégrer le visage de célébrités dans des vidéos pornographiques.
Aujourd’hui, ces vidéos falsifiées sont de moins en moins complexes à réaliser : on peut en générer plus vite, avec un niveau d’expertise moindre et des moyens informatiques moins conséquents. On peut faire des deepfakes à partir d’une seule photo alors qu’avant il fallait de nombreuses images de la personne !"
Comment crée-t-on une vidéo hyper truquée ?
Ewa Kijak maître de conférences à l’université de Rennes 1 et chercheuse au laboratoire Irisa : "Il y a plusieurs types de falsifications qui utilisent différentes méthodes. La plus connue, c’est le face swapping qui consiste à échanger les visages. Il y a même des applis qui proposent d'en faire, mais de mauvaise qualité.
Il y a aussi ce qu’on appelle la marionnettisation qui consiste à garder l’identité de la personne sur la vidéo mais en modifiant ses expressions de visage et le mouvement de ses lèvres. Cette technique a été utilisée pour les deepfakes de Barack Obama ou de Mark Zuckerberg pour leur faire tenir un discours qu’ils n’ont pas tenu.
Les modifications de vidéos étaient déjà utilisées depuis longtemps dans le cinéma en post-production mais elles demandaient beaucoup de connaissances et étaient laborieuses à réaliser."
Quel est le problème avec ces fausses vidéos générées par l’intelligence artificielle ?
Ewa Kijak : "La modification de visage a de nombreuses applications utiles : dans les jeux vidéos ou le cinéma, ça peut permettre de recréer des scènes, d’améliorer le doublage d’un film en modifiant le mouvement des lèvres, de faire vieillir ou rajeunir un personnage… Dans les médias, cela peut être utile pour rendre anonyme les visages filmés au lieu de les flouter. Mais la modification de vidéo, comme toute technologie, peut être détournée à des fins malveillantes. Il existe un risque de désinformation ou de manipulation politique. Et il n’y a pas que des visages que l’on peut modifier, on peut faire croire à l’existence de certains objets en falsifiant des images satellites. Ça peut aussi nous impacter plus directement et mener à du cyber-harcèlement quand c’est utilisé pour discréditer ou nuire à une personne."
Jean-Luc Dugelay : "Cela devient inquiétant lorsque ça dépasse le divertissement, la caricature ou la performance technique. Il y a aussi un risque d’usurpation d’identité. Cela peut poser un grave problème pour certains services, comme dans le milieu bancaire, qui demandent l’identification des personnes par le visage. On peut imaginer que bientôt on arrivera à générer des deepfakes en temps réel, je pourrais alors vous appeler avec votre propre image et votre propre voix."
Comment reconnaître une vidéo falsifiée ?
Jean-Luc Dugelay : "Les gens ont facilement des doutes face à un texte ou une image mais ont davantage tendance à faire confiance à une vidéo. Pourtant, de la même façon qu’un texte peut être faux ou une photo truquée, une vidéo peut être modifiée, réécrite ou générée artificiellement. Selon la méthode utilisée, les défauts sont différents. Certains deepfakes ne changent que la partie centrale du visage donc pour cacher les limites du collage, les contours du visage (oreilles, front…) peuvent avoir été floutés.
Les dents sont difficiles à reproduire, tout comme le clignement des yeux. Il peut aussi y avoir des incohérences au niveau de l’éclairage ou un problème de synchronisation entre la parole et les lèvres. On peut faire un montage image par image qui tient bien la route mais passé en mouvement, il peut y avoir une cassure dans le mouvement de la tête ou des yeux. C’est parfois subtil à détecter à l'œil nu. Le deepfake de Tom Cruise est vraiment bien fait. Il faut chercher pour trouver les imperfections. Plus ça va et plus on devra compter sur les machines pour nous aider à détecter les deepfakes car elles ont une capacité d’analyse qui va au-delà de la vision humaine."
Ewa Kijak : "Les méthodes pour créer des deepfakes s’améliorent, il y a des défauts qui existaient dans le passé et qui ont déjà été corrigés. Même si pour tout un chacun il est encore difficile de produire un deepfake sans défaut visuel, ça devient plus difficile à détecter sur les vidéos de mauvaise qualité, compressées et pixelisées circulant sur les réseaux sociaux. Les techniques de modification se développent mais le champ de la détection de ces modifications se développe aussi. C’est une course entre ceux qui attaquent et ceux qui essaient de défendre !"
Ce n’est pas parce que c’est une vidéo que c’est forcément vrai ! Face à une vidéo, aussi réaliste soit-elle, adoptez les bons réflexes ! Les questions à se poser sont les suivantes : Qui a publié cette vidéo ? D’où provient-elle ? La source est-elle fiable ? S’agit-il d’un organe de presse ou d'un journaliste ? L'information est-elle orientée ? Pour en savoir plus, lisez aussi notre article.
Laura El Feky © CIDJ
Article mis à jour le 11-06-2021
/ créé le 31-05-2021
Crédit photo : Ashwin Vaswani / Unsplash