Les deepfakes incarnent la fusion troublante entre technologie et illusion. À travers le deep learning (apprentissage profond) et des contenus falsifiés, cette technique génère des vidéos ou audios à l’apparence authentique, mais entièrement fictifs. Imaginez une figure politique livrant un discours inventé de toutes pièces ou une scène historique inexistante, rendue crédible par des algorithmes sophistiqués.

Nés en 2017 sur des forums numériques, les deepfakes ont gagné en précision à une vitesse fulgurante. Aujourd’hui, leur réalisme sidérant brouille les frontières entre le vrai et le faux. Jadis simples curiosités technologiques ou outils de divertissement, ils se sont métamorphosés en instruments puissants, parfois menaçants, pour la vérité elle-même.

Sous des airs ludiques, ces créations soulèvent des enjeux majeurs. La manipulation de visuels et de sons questionne l’éthique, le droit et ouvre la voie à des abus inquiétants : propagation d’informations erronées, usurpation d’identité, escroqueries numériques. Les deepfakes constituent désormais une cybermenace redoutable, impactant aussi bien les sphères médiatiques, politiques que financières.

Comment est née la technologie des deepfakes ?  

Les GAN (Generative Adversarial Networks) sont des réseaux de neurones à l’origine des deepfakes. Apparue en 2014, cette technique, inventée par le chercheur Ian Goodfellow, est un duo de deux algorithmes s’entraînant mutuellement. Cette méthode, à l’origine de l’hypertrucage, repose sur un système simple : pendant que le premier crée des « fakes » aussi vrais que possible, l’autre tente de détecter les faux. Au fil du temps, ils s’améliorent ensemble et deviennent plus performants.  

L’idée derrière les GAN était purement scientifique et neutre : il s’agissait simplement d’explorer les capacités de l’intelligence artificielle à créer des contenus réalistes. Cependant, leur détournement à des fins malveillantes n’a pas tardé à soulever des inquiétudes…   

Les deepfakes sont officiellement nés à l’automne 2017 sur Reddit. Ce qui, à l’origine, semblait être un simple épiphénomène numérique a rapidement pris de l’ampleur grâce aux forums en ligne. Depuis, ils se sont développés et leur nombre a considérablement augmenté : d’après la société Deeptrace, en 2019, on retrouvait environ 15 000 vidéos deepfakes.  

À quoi servent réellement les deepfakes ?  

Les “faux profonds” sont parfois produits de manière automatisée à grande échelle et sont malheureusement, dans certains cas, utilisés à des fins malveillantes :  

Les arnaques numériques et le piratage  

Les cybercriminels utilisent parfois des applications de deepfake pour créer des escroqueries, des infox et des piratages qui sont susceptibles de déstabiliser une organisation et poser des défis importants en matière de cybersécurité. Ils s’appuient sur des codes culturels ou professionnels, combinant vidéo modifiée et trucage audio, pour tromper leurs cibles. Par exemple, ils pourraient créer une fausse vidéo d’un dirigeant d’une entreprise du CAC 40 admettant une activité criminelle, des crimes financiers ou encore faire des annonces mensongères sur l’activité de l’organisation. Outre la potentielle perte financière énorme, ce deepfake pourrait avoir un impact majeur sur la marque de l’entreprise, la réputation publique et le prix de l’action.  

La pornographie non consensuelle et les atteintes à la vie privée  

La pornographie non consensuelle constitue l’un des usages de faux profonds le plus scandaleux : la création de contenus à caractère pornographique intégrant des individus, sans leur consentement. Ce phénomène soulève des questions graves sur l’atteinte à la vie privée, les droits d’auteur et la violation des droits fondamentaux des individus. 

Provoquant, dans la plupart des cas, des traumatismes psychologiques chez les victimes. La plupart d’entre elles ciblent des célébrités. La technologie deepfake est également utilisée pour créer des cas de harcèlement et de vengeance pornographique. 

Les deepfakes à caractère pornographique sans consentement sont sévèrement punis par la loi française. Selon l’article 226-8-1 du Code pénal, la diffusion de tels contenus est passible de deux ans d’emprisonnement et de 60 000 euros d’amende

Manipulation de l’opinion et des processus électoraux  

Menaces majeures pour la démocratie, des faux profonds ont été utilisés pour diffuser des vidéos truquées de leaders mondiaux tels que Donald Trump et Barack Obama. Ces contenus ont le pouvoir d’influencer des électeurs, semer le doute et déstabiliser des processus électoraux entiers. Ils jouent sur les codes sociaux et culturels pour manipuler.

L’ingénierie sociale renforcée  

Les escroqueries d’ingénierie sociale évoluent dangereusement avec l’intégration de deepfakes, fusionnant manipulation psychologique et phishing traditionnel. Les cybercriminels exploitent des vidéos et audios contrefaits pour tromper leurs cibles et les pousser à divulguer des informations sensibles ou à exécuter des transactions financières critiques.

À lire aussi :  Qu’est-ce qu’un SIEM ?

Un cas édifiant a secoué Hong Kong : un employé d’une multinationale a transféré 25 millions de dollars après avoir cru participer à une visioconférence avec son supérieur. Convaincu de l’authenticité de cette réunion, il ignorait que les autres participants n’étaient que des avatars hyperréalistes conçus par intelligence artificielle. La supercherie maîtrisait à la perfection les codes de la communication professionnelle.

Cet incident illustre le degré de raffinement des cyberattaques modernes. Les deepfakes confèrent aux manipulations une crédibilité suffisante pour déstabiliser les protocoles de sécurité habituels. Pour contrer ces menaces d’une précision quasi cinématographique, la vigilance humaine, la formation continue et les solutions d’authentification biométriques s’imposent comme remparts incontournables.

La désinformation automatisée  

La technologie deepfake génère à grande échelle des contenus destinés à saturer les réseaux sociaux d’infox. Théories du complot, discours falsifiés sur des enjeux politiques et sociaux : la désinformation prend une forme virale et pernicieuse. Un cas emblématique reste la vidéo truquée de Mark Zuckerberg, où il se vante fictivement de « contrôler des milliards de données personnelles ».

En France, ces manipulations numériques ont également ciblé des figures publiques. Vidéos falsifiées, montages trompeurs : ces outils visent à influencer l’opinion en déformant la réalité. Dans un paysage médiatique où l’information circule à la vitesse de la lumière, ces deepfakes exploitent le doute et la méfiance, renforçant les clivages et semant la confusion.

Ces usages détournés révèlent une menace sournoise. La capacité de produire et de diffuser des faux contenus en masse fait des deepfakes une arme redoutable pour façonner les récits publics. La frontière entre réalité et fiction se fragilise, rendant la vigilance collective plus cruciale que jamais.

Fraude financière et usurpation d’identité  

Enfin, les faux profonds sont aussi utilisés pour créer de nouvelles identités et voler les identités de personnes réelles. Les cybercriminels, à l’aide de cette technologie, sont capables de créer de faux documents ou encore de falsifier la voix de leur victime. 

Quels sont les signes révélateurs d’un deepfake ?  

Bien qu’ils soient de plus en plus sophistiqués, certains détails trahissent encore leur origine artificielle. Heureusement, certains signes permettent de distinguer un deepfake d’un contenu authentique, il est essentiel de savoir repérer les activités inhabituelles ou les mouvements non naturels :   

Les anomalies dans les mouvements des yeux  

Un manque de mouvement est un bon indicateur pour repérer un deepfake :  il est difficile de reproduire le mouvement naturel des yeux, généralement rigides ou mal coordonnés, il manque souvent de naturel sur un deepfake.   

Clignements des yeux non naturels  

Un autre indice courant : le clignement des yeux, ou plutôt son absence. En effet, il est difficile de reproduire l’action naturelle et humaine du clignement régulier avec la technologie de faux profond.  

Expressions faciales non naturelles  

Les faux profonds ont aussi du mal à reproduire les micro-expressions humaines. Les visages étant simplement cousus d’une image à l’autre, le résultat implique habituellement des expressions faciales inhabituelles ou non naturelles.   

Incohérences dans la morphologie du corps  

Les images falsifiées se concentrent principalement sur les visages plutôt que sur l’ensemble du corps. Des proportions anormales ou des mouvements désarticulés sont des signes clairs d’un montage artificiel.  

Cheveux et textures capillaires étranges  

La technologie deepfake n’est pas capable de générer des caractéristiques individuelles réalistes, telles que des cheveux frisottés ou désordonnés.   

Couleurs de peau anormales et pixellisées  

Les deepfakes peinent encore à capturer la fidélité des couleurs naturelles dans les images et les vidéos. Une anomalie fréquente réside dans les teints de peau, souvent artificiels ou légèrement décalés de la réalité.

Cette imperfection, bien que subtile, peut trahir les contenus falsifiés. Des nuances étranges, des ombres incohérentes ou des dégradés irréguliers signalent une manipulation numérique sous-jacente. Là où le réalisme cherche à convaincre, la couleur demeure parfois le talon d’Achille de ces créations.

Malgré des avancées technologiques impressionnantes, ces défauts chromatiques offrent encore des indices précieux pour déceler les faux. L’œil averti peut s’appuyer sur ces incohérences pour différencier l’authentique du simulacre.

Angles de tête et de corps non naturels  

Les fausses images profondes présentent habituellement un positionnement incohérent. Si la tête semble désalignée par rapport au corps, c’est souvent un signe de détournement.  

Expressions faciales qui ne correspondent pas aux émotions  

Autre incohérence courante : les expressions faciales qui ne reflètent pas l’émotion que la personne devrait afficher. Par exemple, un visage souriant qui n’atteint pas les yeux est probablement un faux.  

À lire aussi :  Qu’est-ce que le vishing ?

Problèmes d’éclairage et dégradations de couleur  

Les faux profonds ont du mal à gérer l’éclairage réaliste. Comme pour les raisons des carnations non naturelles, les images, contrefaites, présentent fréquemment des ombres mal placées ou une lumière qui ne suit pas les contours du visage.  

Synchronisation défaillante entre les lèvres et le son  

Les montages vidéo artificiels présentent aussi une mauvaise correspondance entre le mouvement des lèvres et l’audio. Les mots ne correspondent pas toujours parfaitement au mouvement des lèvres, surtout lors de phrases rapides ou complexes.  

Quels sont les exemples les plus célèbres de deepfakes ?  

Les faux profonds ont fait irruption dans l’actualité avec des exemples frappants, qu’il s’agisse d’usages malveillants ou d’un deepfake positif, ayant fasciné et inquiété. De la satire politique à la désinformation flagrante, ces vidéos modifiées témoignent de l’impact que cette technologie peut avoir, qu’il soit ludique ou destructeur. 

Les deepfakes en France : Emmanuel Macron ciblé

Un cas marquant a circulé en juillet 2023 : on y voit le faux Emmanuel Macron qui annonce sa démission, cette séquence utilise en réalité des images détournées d’une déclaration officielle du Président. Bien qu’elle ait été rapidement démentie, la vidéo a connu une large diffusion, alimentant des débats sur la désinformation en ligne.

En février 2024, un autre canular impliquait Emmanuel Macron : une vidéo montée de toutes pièces, imitant un journal télévisé de France 24, annonce une tentative d’assassinat contre le Président lors d’une visite en Ukraine. Identifiée comme une intox pro-russe, cette vidéo a continué de circuler sur certains sites. 

Le faux Barack Obama qui interpelle Donald Trump  

Un cas qui a beaucoup fait parler en 2018 : il s’agit d’une vidéo représentant Barack Obama en train d’insulter Donald Trump. Bien sûr, cette vidéo n’était pas réelle. L’objectif de cette vidéo, consultée des millions de fois, était de sensibiliser les internautes aux dangers des deepfakes.   

Les révélations du faux Mark Zuckerberg  

Une intervention vidéo de quelques secondes a commencé à circuler sur Instagram le 7 juin 2019. Elle met en scène Mark Zuckerberg, le PDG de Facebook, tenant des propos inquiétants en se vantant d’avoir un contrôle total sur les données personnelles de milliards d’utilisateurs. Encore une fois, il s’agissait d’un faux, créé de toutes pièces par deux artistes, travaillant en collaboration avec plusieurs agences de communication américaines spécialisées dans la manipulation audio-vidéo. La vidéo a vu le jour peu après que Facebook et Instagram ont annoncé qu’ils refusaient de bannir les deepfakes. Son but était alors de critiquer les dérives des grandes entreprises technologiques  

La fausse allocution de Volodymyr Zelensky  

En 2022, deux semaines après l’invasion de l’Ukraine par la Russie, un deepfake de Vlodomir Zelensky a fait son apparition sur les réseaux sociaux. Ce montage repose sur une modification de portrait convaincante, où le président ukrainien annonce la reddition de l’Ukraine. C’est la première fois qu’un faux profonds fait office d’arme de démobilisation de forces armées. Si les incohérences visuelles ont rapidement permis de la démasquer, cet exemple montre à quel point les deepfakes sont susceptibles d’être utilisés en tant qu’arme de guerre psychologique !  

La fausse performance de Tom Cruise  

Début mars 2021, une série de vidéos est devenue virale sur TikTok et Twitter, prétendant montrer le célèbre acteur Tom Cruise. On le voyait rigoler, faire des tours de magie ou encore raconter des anecdotes. Bien que ces vidéos soient à la frontière entre canulars et divertissement, elles étaient tellement réalistes qu’elles ont suscité des inquiétudes sur les dérives possibles de cette technologie. Ces deepfakes sont considérés en tant qu’éléments des médias synthétiques les plus convaincants à ce jour.  

Comment les deepfakes audio diffèrent-ils des deepfakes vidéo ?  

Les deepfakes audio et vidéo reposent sur des technologies similaires, cependant ils jouent sur des perceptions bien distinctes : là où les vidéos falsifiées attirent immédiatement l’attention par leur impact visuel, les deepfakes audio agissent de manière plus subtile, en manipulant ce qui nous semble le plus familier : la voix.  

Une vidéo deepfake joue sur l’impact visuel et sur notre instinct de croire ce que l’on voit.  Elle peut imiter un visage, des expressions ou même modifier complètement le contexte d’une scène. Ces détournements visuels sont spectaculaires, mais demandent un travail de précision pour aligner les mouvements, les lumières et les émotions.  

Les deepfakes audio,  parfois appelés trucages audio, frappent autrement. À partir d’enregistrements existants, ils reproduisent une voix en capturant ses intonations et son rythme. C’est le mélange de réalisme et de simplicité technique qui rend ces falsifications si redoutables.  

À lire aussi :  Qu'est-ce que DMARC (Domain-based Message Authentication, Reporting and Conformance) ?

Si les deepfakes vidéo sont utilisés pour diffuser des informations trompeuses ou manipuler et modifier l’opinion publique, les deepfakes audio, eux, se glissent dans des scénarios plus ciblés : escroqueries financières, usurpations d’identité et manipulation.   

Quelles mesures les réseaux sociaux prennent-ils pour lutter contre les deepfakes ?  

Des faux profonds circulent tous les jours sur les réseaux sociaux, risquant de tromper les utilisateurs ou de nuire à des personnes ou des organisations. Face à cette menace, les plateformes ont dû déployer des techniques,  tout en réfléchissant à des mesures encadrant le pseudonymat et deepfake en ligne pour limiter les abus.

Détection et étiquetage des contenus  

Meta, la société mère de Facebook et Instagram, explore des outils comme ceux utilisés en réalité augmentée pour repérer les signes de détournement. Lorsqu’un contenu est identifié comme potentiellement généré par IA, il est automatiquement étiqueté sous le nom de « AI Info ». Afin de renforcer la transparence à l’approche des élections, Meta est même allé plus loin : en mai 2024, la société a mis en place des étiquettes « Made with AI » sur les vidéos, images et audios générés par intelligence artificielle. Cette détection combine technologies et vérification humaine.  

Politiques de modération   

Beaucoup de plateformes ont aussi renforcé leurs politiques de modération. Youtube et X, par exemple, suppriment toute vidéo identifiée en tant que deepfake nuisible. Tiktok ajoute un avertissement sur les vidéos pouvant être manipulées afin que ses utilisateurs sachent qu’ils regardent une vidéo potentiellement falsifiée. De même, Reddit a banni des communautés dédiées aux deepfakes non consensuelles, et Discord a pris des mesures similaires pour lutter contre la diffusion de ce type de contenus.   

Collaboration avec des vérificateurs de faits  

Des plateformes, à l’instar d’Instagram, travaillent avec des vérificateurs pour affiner leur outil de détection. Leur but est d’identifier et de signaler les données incorrectes. Le projet « Deepfake Detection Challenge », lancé il y a quelques années, a permis de mobiliser la communauté scientifique autour de solutions concrètes.  

Sensibilisation des internautes  

Facebook a récemment mis en place des campagnes éducatives, leur but est d’éduquer les internautes à repérer ces “fake news”  

Malgré tous les efforts et les nouvelles mesures des plateformes, la prolifération des deepfakes reste un défi majeur. Elles sont sous pression pour améliorer continuellement leur chasse aux deepfakes. La collaboration avec les gouvernements est aussi essentielle pour développer des cadres réglementaires efficaces pour pouvoir protéger les utilisateurs contre les contenus manipulés. En France, la loi n°2024-449 du 21 mai 2024 vise à sécuriser et réguler l’espace numérique, incluant des dispositions spécifiques sur les deepfakes. 

Comment les entreprises peuvent-elles se protéger contre les deepfakes ?  

Les deepfakes sont un danger croissant pour les entreprises pouvant exposer leurs opérations et leur réputation à divers risques. Pour s’en prémunir efficacement, les entreprises adoptent plusieurs stratégies :  

Sensibilisation et formation des employés  

Former les employés à reconnaître les deepfakes et à réagir de manière appropriée est crucial. Une équipe formée constitue la première ligne de défense contre ces menaces. La formation cybersécurité en entreprise est essentielle pour se protéger efficacement.   

Renforcement des protocoles de cybersécurité  

Pour protéger son entreprise contre les attaques basées sur les deepfakes, il est primordial d’améliorer ses mesures de cybersécurité, telles que le renforcement des pares-feux, la mise à jour régulière des logiciels de sécurité, l’utilisation de systèmes de détection d’intrusion avancés et la sécurisation des sites web avec des certificats https. 

Mise en place de processus d’authentification robustes  

L’intégration de solutions comme le tatouage numérique, des méthodes d’authentification avancées, clés de sécurité FIDO2 et vérifications multifacteurs réduisent considérablement les risques d’usurpation d’identité liés aux deepfakes. Ces technologies imposent des barrières supplémentaires pour contrer les manipulations sophistiquées.

Pour les entreprises cherchant à renforcer leur cybersécurité face à ces menaces émergentes, la plateforme U-Cyber 360° propose une approche globale. Elle détecte en temps réel les vulnérabilités humaines et délivre un CyberScore afin de faciliter une gestion proactive des risques.

Avec des rapports détaillés et des recommandations concrètes, la solution permet aux entreprises de mesurer l’efficacité de leurs dispositifs de sécurité. Cette solution optimise leur résilience et leur capacité à anticiper, identifier et neutraliser les attaques basées sur des technologies comme les deepfakes.

Articles similaires

Cybersécurité
20.11.2024

Qu’est-ce que le protocole ARC ?

Cybersécurité
28.10.2024

Qu’est-ce que BIMI ?

Cybersécurité
22.10.2024

Qu’est-ce qu’un SIEM ?

Cybersécurité
11.10.2024

Qu'est-ce que le Spoofing ?

Actualités
22.11.2023

Qu’est-ce que le Quishing ?

Phishing
25.03.2022

Qu’est-ce que le vishing ?

Phishing
04.03.2022

Qu’est-ce que le Smishing ? 

Ingénierie sociale
14.01.2022

Qu’est-ce que l’ingénierie sociale ?

Ransomware
25.10.2021

Qu'est-ce qu'un malware ?

Spam
15.12.2020

Qu'est-ce qu'un spam ?

Ransomware
11.12.2020

Qu'est-ce qu'un ransomware ?

Cybersécurité
12.06.2024

Tout savoir sur les logiciels malveillants

Cybersécurité
12.03.2018

Guide des bonnes pratiques de sécurité

Cybersécurité
30.12.2020

Les impacts d'une cyberattaque

Actualités
11.01.2024

Kit de sensibilisation clients