Qu’est-ce que le deepfake ?  

Deepfake est un terme original dérivé des mots « deep learning » et « fake », respectivement « apprentissage profond » et « faux » en français. Le Deep Learning est une méthode d’intelligence artificielle utilisant plusieurs algorithmes de Machine Learning pour extraire progressivement des éléments de niveau supérieur à partir de données brutes. Cela lui permet d’apprendre de données non structurées – comme le visage, la voix ou encore les mouvements humains.  

Ces données peuvent ensuite être traitées pour créer une photo ou une vidéo deepfake via un RAG (réseau antagoniste génératif). Il s’agit d’un autre type de système de Machine Learning. Deux réseaux neuronaux sont alors mis en concurrence dans l’apprentissage des caractéristiques d’un ensemble de modèles (photos de visages, par exemple), puis dans la génération de nouvelles données présentant les mêmes caractéristiques. Cela crée alors de nouvelles « photos » hypertruquées par exemple. 

Il est difficile d’établir précisément la date à laquelle cette technologie a été inventée, car elle dérive de la manipulation de photos et de vidéos numériques, technologie datant des années 90. Toutefois, la première tentative réussie de deepfake a été créée et publiée sur Reddit en 2017. L’utilisateur a publié des vidéos malicieusement modifiées, en substituant les visages d’acteurs par ceux de célébrités. 

Pourquoi est-ce que le deepfake pose un problème de cybersécurité ?  

Selon une étude conduite par VMware en 2022, les deepfakes sont de plus en plus utilisés dans les cyberattaques. Le spécialiste des solutions de virtualisation a d’ailleurs relevé une hausse de 13% des attaques utilisant des photos ou des vidéos truquées. 66 % des professionnels de la cybersécurité interrogés dans le cadre de cette étude ont également déclaré en avoir repéré au moins une au cours de l’année écoulée. Si les premiers deepfakes étaient largement faciles à repérer, la technologie a aujourd’hui évolué pour devenir nettement plus convaincante. En mars 2022, une vidéo publiée sur les réseaux sociaux semblait montrer le président ukrainien Volodymyr Zelensky ordonnant à ses soldats de se rendre aux forces russes. Cette vidéo a été rapidement dénoncée par le chef d’Etat, mais a illustré l’ampleur que peut avoir les deepfakes.  

Utilisation de l’intelligence artificielle pour créer des contenus falsifiés  

Pour créer des deepfakes réussis, les pirates informatiques utilisent donc l’intelligence artificielle. Les techniques les plus populaires ont recours à l’apprentissage profond ou à un RAG. 

À lire aussi :  IA et Cybersécurité : quelles menaces futures pour votre entreprise ?

Avec la première méthode, des milliers de photos de deux personnes sont placées dans un encodeur. L’algorithme d’IA compare alors toutes les données fournies pour y trouver des similitudes et compresse les images. Ensuite, deux décodeurs, un pour chaque personne, déterminent si les images compressées ont produit des visages réalistes et les récupèrent. Les traits de la personne A sont apposés sur le visage de la personne B et vice-versa, créant ainsi un contenu hybride convaincant. 

Dans la méthode RAG, deux algorithmes d’apprentissage automatique travaillent l’un contre l’autre. Le premier algorithme, le générateur, utilise des données pour produire des images synthétiques. Ensuite, le second algorithme, appelé discriminateur, combine les images synthétiques produites par le générateur et les images réelles. En répétant le processus de nombreuses fois, les algorithmes d’apprentissage automatique peuvent créer des visages réalistes d’inconnus. Cette technique, qui demande plus de temps, est la méthode la plus efficace pour créer des images trafiquées. 

Dans le cas d’un audio truqué, tout le matériel original passe par un algorithme d’IA qui clone la voix, le ton et les tics de langage de l’interlocuteur. Peuvent être utilisés pour créer des audios contrefaits : les discours, les présentations, les appels téléphoniques et les vidéos où il n’y a pas d’interruptions ni de bruits ambiants. 

Pourquoi les deepfakes sont-ils dangereux ?  

Exemples de potentiels dommages à la réputation et risques de tromperie 

Depuis sa création, les deepfakes ont été utilisés à diverses fins malveillantes, qu’elles soient politiques ou personnelles. Cependant, aujourd’hui, ils sont de plus en plus utilisés dans le cadre de tentatives de fraude et de chantage. 

Le PDG d’un fournisseur d’énergie britannique s’est ainsi fait extorquer 243 000£ après avoir été victime d’un deepfake vocal. Les pirates informatiques ont utilisé la voix du responsable de la société mère pour demander au PDG de réaliser un transfert de fonds en urgence. Le deepfake était si convaincant qu’il n’a pas pensé à vérifier vers quel compte étaient transférés les fonds – ici ils n’ont pas été versés au siège social, mais sur un compte bancaire tiers. Le PDG n’a commencé à avoir des soupçons que lorsque le responsable lui a demandé d’effectuer un autre transfert. Mais il était déjà trop tard pour récupérer les fonds transférés. 

À lire aussi :  Covid-19 : quels enseignements et moyens pour renforcer sa protection informatique ?

Les auteurs de deepfakes peuvent également faire chanter des directeurs d’entreprises en les menaçant de publier une vidéo truquée s’ils refusent de leur transférer de l’argent ou encore accéder au réseau de l’entreprise en synthétisant un appel vidéo du responsable informatique, incitant les salariés à céder leurs mots de passe. Cela permet ensuite aux pirates d’accéder très facilement aux bases de données sensibles. 

De fausses vidéos pornographiques ont également vu le jour pour faire chanter des femmes reporters et journalistes ou encore des hommes d’affaire. La technologie devient de plus en plus abordable, il faut donc s’attendre à ce que le deepfake devienne une méthode de chantage et d’escroquerie des plus populaire.  

Comment se protéger contre les deepfakes ?  

Utilisation de logiciels de détection, sensibilisation des employés et protocoles de vérification d’identité 

Pour se prémunir au mieux des cyber menaces, les entreprises de cybersécurité proposent de nombreux algorithmes de détection. Pour une détection toujours plus performante, ces derniers analysent l’image vidéo ainsi que ses minuscules distorsions créées durant le processus de « falsification ». Par exemple, les synthétiseurs de deepfakes actuels créent un visage en 2D, puis le déforment pour l’adapter à la perspective 3D de la vidéo ; la direction dans laquelle pointe le nez est un indice révélateur. 

Les vidéos deepfake en sont toujours à un stade où il est facile de les détecter vous-même. Elles présentent souvent les caractéristiques suivantes : 

  • Mouvement saccadé 
  • Variations de lumière d’un plan à l’autre 
  • Variations au niveau de la couleur de peau 
  • Clignements étranges des yeux ou pas de clignements du tout 
  • Mouvement des lèvres mal synchronisées avec la parole 

Mais à mesure que les logiciels deepfakes se perfectionnent, il sera de plus en plus difficile de les déceler.  

Pour éviter le détournement de certaines vidéos, des technologies émergent pour aider les vidéastes à authentifier leurs vidéos. Un algorithme cryptographique peut être utilisé pour insérer des hachages à des intervalles définis de la vidéo, si la vidéo est altérée, les hachages seront modifiés. 

À lire aussi :  Quand l’intelligence artificielle joue un rôle clé dans la cybersécurité des PME

Un autre moyen de repousser les tentatives de deepfakes consiste à sensibiliser les employés. Cyber Academy, la plateforme de formation à la cybersécurité de Mailinblack, vous aide à former efficacement vos collaborateurs aux cyber risques grâce à des contenus interactifs, engageants et adaptés au rythme d’apprentissage de chacun. Vous vous assurerez alors que vos salariés comprennent comment fonctionne le deepfake et les défis qu’il peut poser. 

Quels sont les risques pour les entreprises ?  

Préjudices financiers, de réputation et juridiques 

Alors que certains attestent des aspects bénéfiques des deepfakes, notamment pour leur côté “divertissant”, cette technologie représente une menace pour la cybersécurité. La manipulation vidéo et audio rend l’usurpation d’identité encore plus crédible. 

Les cyberattaques par deepfake peuvent viser n’importe qui. Les photos et les vidéos publiées en ligne, notamment sur les réseaux sociaux, peuvent facilement être récupérées, placées dans le logiciel et utilisées dans une attaque de deepfake cybersécurité. De même pour la collecte de données à caractère personnel.

L’utilisation de deep fake en ligne pour modifier le contenu audio aide les escrocs à se faire passer pour des employés, des fournisseurs ou des dirigeants d’entreprises, surtout lors d’appels téléphoniques. La présence croissante des entreprises sur les réseaux sociaux a un effet immense sur leur vulnérabilité face à une telle menace. En effet, pour donner à leur marque un aspect plus humain, il n’est pas rare que les entreprises publient des vidéos pour promouvoir leurs produits et présentent leur personnel. Bien que bénéfique pour les affaires de l’entreprise, cette pratique facilite l’acquisition de contenu pour créer de faux audios ou vidéos…  

 

Que vous utilisiez l’IA dans votre PME, TPE, ETI ou encore dans votre administration publique ou votre établissement de santé en france, cette technologie vous permet de vous prémunir des deepfakes. Pour en savoir plus sur notre solution de formation des collaborateurs, demandez une démo. 

Articles similaires

Intelligence artificielle
25.01.2023

Et si ChatGPT était utilisé à des fins malveillantes ?