visuel sante des armees 12/2024

Avis d’expert Deepfakes : Comment ne pas se faire piéger par de fausses vidéos ? 

Laura El Feky
Publié le 31-05-2021

En bref

  • Parfois appelés « hypertrucages », « videotox » ou « sextorsions », les « deepfakes » se caractérisent par l'usage de fausses vidéos où le discours ou l'action d'un personnage ont été modifiés.
  • Ces vidéos générées par l’intelligence artificielle deviennent de moins en moins complexes à réaliser, et de plus en plus difficiles à détecter.
  • Ewa Kijak, maître de conférences à l’université de Rennes 1 et chercheuse au laboratoire Irisa, et Jean-Luc Dugelay, professeur en sécurité numérique à EURECOM Sophia Antipolis, ont répondu à nos questions.
Deepfakes.jpg
Pour repérer un deepfake, il faut faire attention aux détails du visage, comme le clignement des yeux ou l'incohérence de l'éclairage. Crédit : Ashwin Vaswani / Unsplash
65% des étudiants estiment que la présence des IA génératives fait partie des principaux critères de choix de leur future entreprise.
En 2024, 31% des Français ont déjà relayé une fake news, alors qu'ils n'étaient que 24% en 2019. Crédit : Perrine Basset Fériot - CIDJ

Qu’est-ce qu’un deepfake ?

Jean-Luc Dugelay, professeur en sécurité numérique à EURECOM Sophia Antipolis : "Le terme deepfake est un mot-valise qui fait référence au deep learning, c’est-à-dire l’apprentissage profond qui est un type d’intelligence artificielle, et à fake qui veut dire faux. Les Québécois le traduisent par « vidéos hyper truquées ». Il s'agit de fausses vidéos où le discours ou l'action d'un personnage ont été modifiés. Cette technique est très récente. On a commencé à en entendre parler sur Reddit (NDLR : forum de discussion américain). Au départ, c’était utilisé pour du revenge porn (NDLR : contenu sexuellement explicite diffusé en ligne sans le consentement de la personne) ou pour intégrer le visage de célébrités dans des vidéos pornographiques. Aujourd’hui, ces vidéos falsifiées sont de moins en moins complexes à réaliser : on peut en générer plus vite, avec un niveau d’expertise moindre et des moyens informatiques moins conséquents. On peut faire des deepfakes à partir d’une seule photo alors qu’avant il fallait de nombreuses images de la personne !"

Ewa Kijak maître de conférences à l’université de Rennes 1 et chercheuse au laboratoire Irisa : "Il y a plusieurs types de falsifications qui utilisent différentes méthodes. La plus connue, c’est le face swapping qui consiste à échanger les visages. Il y a même des applis qui proposent d'en faire, mais de mauvaise qualité. Il y a aussi ce qu’on appelle la marionnettisation qui consiste à garder l’identité de la personne sur la vidéo mais en modifiant ses expressions de visage et le mouvement de ses lèvres. Cette technique a été utilisée pour les deepfakes de Barack Obama ou de Mark Zuckerberg pour leur faire tenir un discours qu’ils n’ont pas tenu. Les modifications de vidéos étaient déjà utilisées depuis longtemps dans le cinéma en post-production mais elles demandaient beaucoup de connaissances et étaient laborieuses à réaliser."

Ewa Kijak : "La modification de visage a de nombreuses applications utiles : dans les jeux vidéos ou le cinéma, ça peut permettre de recréer des scènes, d’améliorer le doublage d’un film en modifiant le mouvement des lèvres, de faire vieillir ou rajeunir un personnage… Dans les médias, cela peut être utile pour rendre anonyme les visages filmés au lieu de les flouter. Mais la modification de vidéo, comme toute technologie, peut être détournée à des fins malveillantes. Il existe un risque de désinformation ou de manipulation politique. Et il n’y a pas que des visages que l’on peut modifier, on peut faire croire à l’existence de certains objets en falsifiant des images satellites. Ça peut aussi nous impacter plus directement et mener à du cyber-harcèlement quand c’est utilisé pour discréditer ou nuire à une personne."

Jean-Luc Dugelay : "Cela devient inquiétant lorsque ça dépasse le divertissement, la caricature ou la performance technique. Il y a aussi un risque d’usurpation d’identité. Cela peut poser un grave problème pour certains services, comme dans le milieu bancaire, qui demandent l’identification des personnes par le visage. On peut imaginer que bientôt, on arrivera à générer des deepfakes en temps réel, je pourrais alors vous appeler avec votre propre image et votre propre voix."  

Jean-Luc Dugelay : "Les gens ont facilement des doutes face à un texte ou une image mais ont davantage tendance à faire confiance à une vidéo. Pourtant, de la même façon qu’un texte peut être faux ou une photo truquée, une vidéo peut être modifiée, réécrite ou générée artificiellement. Selon la méthode utilisée, les défauts sont différents. Certains deepfakes ne changent que la partie centrale du visage donc pour cacher les limites du collage, les contours du visage (oreilles, front…) peuvent avoir été floutés. Les dents sont difficiles à reproduire, tout comme le clignement des yeux. Il peut aussi y avoir des incohérences au niveau de l’éclairage ou un problème de synchronisation entre la parole et les lèvres. On peut faire un montage image par image qui tient bien la route, mais passé en mouvement, il peut y avoir une cassure dans le mouvement de la tête ou des yeux. C’est parfois subtil à détecter à l'œil nu. Le deepfake de Tom Cruise est vraiment bien fait. Il faut chercher pour trouver les imperfections. Plus ça va et plus on devra compter sur les machines pour nous aider à détecter les deepfakes, car elles ont une capacité d’analyse qui va au-delà de la vision humaine."

Ewa Kijak  : "Les méthodes pour créer des deepfakes s’améliorent, il y a des défauts qui existaient dans le passé et qui ont déjà été corrigés. Même si pour tout un chacun il est encore difficile de produire un deepfake sans défaut visuel, ça devient plus difficile à détecter sur les vidéos de mauvaise qualité, compressées et pixelisées circulant sur les réseaux sociaux. Les techniques de modification se développent mais le champ de la détection de ces modifications se développe aussi. C’est une course entre ceux qui attaquent et ceux qui essaient de défendre !"

Focus

Deepfake, fake news : même réflexes !

Ce n’est pas parce que c’est une vidéo que c’est forcément vrai ! Face à une vidéo, aussi réaliste soit-elle, adoptez les bons réflexes ! Les questions à se poser sont les suivantes : Qui a publié cette vidéo ? D’où provient-elle ? La source est-elle fiable ? S’agit-il d’un organe de presse ou d'un journaliste ? L'information est-elle orientée ? Pour en savoir plus, lisez aussi notre article.

Nous rencontrer Nous rencontrer

Le réseau Info jeunes est accessible à tous les publics (collégiens, lycéens, étudiants, salariés, demandeurs d'emploi...) mais aussi à leurs parents, à leurs enseignants et à tous les travailleurs sociaux. L'accès est libre et gratuit.