Intelligence artificielle et Deepfakes

Entre espoirs et malaises

Emeline Strentz et Sarah C., 6 janvier 2020

Analyse rédigée pour le Portail de l'IE

Aujourd'hui, l a technologie peut être un remède autant qu'un poison. L'Intelligence artificielle (IA) peut être synonyme de progrès, mais avec l'apparition d e DeepFake, de nombreux problèmes concrets sont soulevés. Qu'en est-il des enjeux et de l'avenir des « hypertrucages » ?

« Je ne crois que ce que je vois ». Est-ce réellement le cas aujourd'hui avec une utilisation massive du numérique ? L e mot « DeepFake » est une contraction entre « Deep Learning » (apprentissage profond d'une IA) et « Fake » (que l'on traduit par faux). Le DeepFake, ou hypertrucage signifie donc un contenu
fallacieux rendu profondément crédible grâce à l'IA. L'objectif est simple : manipuler les perceptions à travers la désinformation, l'infox et les blagues. 

Cette Fake News évoluée cherche avant tout à détourner l'attention des publics pour faire passer des éléments faux pour vrai. L'IA met donc en œuvre plusieurs techniques dans le but de permettre aux machines d'imiter une forme d'intelligence réelle.

Intelligence artificielle et DeepFake : techniques et outils

C'est à l'automne 2017 que le phénomène des DeepFakes naît officiellement. Un utilisateur anonyme du site Reddit a posté des vidéos montrant des actrices célèbres, comme Emma Watson ou Scarlet Johansson, s'adonner à des pratiques pornographiques alors qu'elles n'avaient e n aucun cas participé à ces vidéos.

Depuis, le phénomène est en pleine croissance : entre fin 2018 et l'automne dernier, leur nombre a presque doublé passant de 8.000 à 14.700. Pour certains, les DeepFakes ont tendance à se
généraliser. Pour d'autres, la création de DeepFakes nécessite d'avoir certains éléments à savoir la motivation, la patience et le matériel adéquat.

En 2014, une technique inventée par l e chercheur lan Goodfellow est à l'origine des DeepFakes. Il s'agit des GAN (Generative adversarial networks ou réseaux antagonistes génératifs). D'après cette technologie, deux algorithmes s'entraînent mutuellement. L'un tente de créer de fausses imitations aussi crédibles que possible ; l'autre cherche à détecter les faux. Ainsi, les deux algorithmes s'améliorent ensemble avec le temps, par leur entraînement respectif. Plus le nombre d'échantillons à leur disposition augmente, plus leur progression est importante.

 

U n outil récent, MarioNETte est développé par les chercheurs d'Hyperconnect, un laboratoire de recherches à Séoul. Il reconstitue et anime les traits d'un visage à partir d'une seule photo. Aux Etats-Unis, l'application FakeApp est sortie en janvier 2018. Cette dernière analyse comment se comporte le visage dans la vidéo pour pouvoir appliquer a u mieux celui qui doit le remplacer. Le montage est simple et rapide pour un résultat parfait. C e logiciel est performant, puisque la distinction entre les
vraies vidéos des fausses est compliquée.

 

Concernant les DeepFakes audios, la création et la détection des enregistrements audios relèvent du domaine des professionnels pour l'instant. Elle nécessite en effet certaines ressources, telles que le temps et le matériel adéquat. Actuellement, seule la société américaine de biométrie audio, Pindrop, développe des voix synthétiques afin de former ses propres défenses pour les détecter. L'IA de cette entreprise écoute d'innombrables heures de conversation d'une personne réelle pour imiter, voire améliorer la voix synthétique jusqu'à ce que l e système de Pindrop ne distingue plus le vrai au faux. Quant à la détection du faux, seul un ordinateur en est capable pour l'instant.

Malgré l'apparition de multiples outils et méthodes, l'engouement pour les DeepFakes n'est pas encore comparable à celui porté pour les Fake News.

Le DeepFake : une nouvelle arme encore méconnue

Aujourd'hui, les campagnes de sensibilisation contre les Fake News appellent à la prudence quant aux informations relayées grâce aux réseaux sociaux. Malheureusement, pour l'instant, très peu de professionnels de l'information s'attardent sur les DeepFakes qui deviennent peu à peu une arme dangereuse pour les démocraties. Future Advocacy, think tank britannique, opère chaque jour pour démontrer que les DeepFakes sont devenus une préoccupation d'ordre public. Le responsable de c e groupe de réflexion, Areeq Chowdhury, constate par ailleurs la désinvolture
des hommes politiques face au sérieux danger du DeepFake.

Actuellement, 96 % des hypertrucages restent dans la sphère du divertissement en parodiant certaines célébrités américaines. Il va de soi que la sphère politique sera touchée pour les élections futures ou pour toute intervention politique. Même si le phénomène est apparu fin 2017, en deux ans des trucages visant des personnes politiques peuvent être observés.


Le 14 février 2019, une vidéo falsifiée a mis en scène Barack Obama insultant ouvertement le président américain actuel.

Ensuite, les élections législatives britanniques qui ont eu lieu le 12 décembre 2019 ont été une occasion pour mettre en scène de faux enregistrements. Deux vidéos ont été publiées quelques mois
avant, sur Twitter dans le but de déstabiliser les internautes, dans
un contexte politique tendu. La première vidéo met en scène le Premier ministre mettant en avant son opposant. Plus tard dans la journée, un second trucage est véhiculé sur le réseau social. Cette fois-ci, ledit opposant demande aux Britanniques à soutenir le Premier ministre.

 

Enfin, une autre personne politique a été utilisée à son insu dans une campagne d'information diffusée l e 6 octobre 2019. Solidarité Sida, une association française, a en effet propagé une vidéo truquée mettant en scène Donald Trump annonçant la fin du sida. À la fin de la vidéo, un message informe aux internautes que c'est un faux. Après une analyse des réactions sur les réseaux sociaux, le constat est simple : la majorité n'a pas regardé la vidéo jusqu'à la fin. (Vidéo sur YouTube.) 

Le but de cette opération est bien entendu la réalisation du « buzz » pour toucher un large public.
Cette campagne n'a pas eu de réelles répercussions graves, mais elle amène à critiquer l'utilisation des DeepFakes, d'un point de vue éthique, moral et stratégique. À savoir, cette association affirme que ce montage est réalisé pour des motifs honorables et légitimes. Qu'en est-il des hypertrucages futurs, réalisés notamment par de grands lobbyistes dans le but de servir leurs propres intérêts ?

 

Outre ces exemples anglo-saxons, les vidéos modifiées sont pour l'instant rares dans le domaine politique dans d'autres pays européens. Malgré tout, l'Europe est touchée par une autre forme
de DeepFake. En septembre 2019, une IA a généré un enregistrement sonore falsifié. Grâce à cet outil, l e malfaiteur a usurpé l'identité d'un dirigeant allemand pour forcer un subalterne, le versement de 220.000 € sur son compte. Lhypertrucage dans le domaine privé semble pour l'instant un « atout » majeur dans la guerre de l'information, car peu de techniques et méthodes sont mises en place pour déjouer ces faux.

L'avenir des DeepFakes : une nouvelle crainte à ne pas sous-estimer

Les enregistrements falsifiés parfaits e t indétectables pourraient se trouver accessibles à tout le monde d'ici six mois à un an. Ainsi, les DeepFakes ne sont pas une réelle menace aujourd'hui, mais demeurent à l'origine de nombreuses inquiétudes pour le futur. Des méthodes et outils pour détecter et contrer les DeepFakes commencent à se développer. Le tatouage numérique est conseillé depuis 2017. Des techniques « low-tech » (lunettes capables d'induire en erreur) sont préconisées pour tromper la
reconnaissance faciale. Dans une optique d'anticipation, des mesures plus importantes seront mises en place. La Cyberspace Administration of China (CAC) appliquera une nouvelle loi dès le 1er janvier 2020, pour sanctionner les créateurs de DeepFakes au même titre que les criminels.

Des entreprises privées telles que Pindrop e t Deeptrace vendent leurs services pour contrer les hypertrucages. Des projets se développent également, menés principalement par Google et Facebook. TensorFlow, créé par Google Brain Team en 2011, est une bibliothèque d e Machine learning avec 3.000 hypertrucages. Celle-ci facilite les chercheurs à développer des architectures d'apprentissage expérimentales et de les transformer en logiciels. Cette bibliothèque entraîne et exécute des réseaux de neurones pour la classification et la reconnaissance d'images, ce qui peut servir dans le cas des DeepFakes. 

Cependant, cet outil est encore complexe, car il requiert des connaissances en algèbre linéaire et une compréhension de la Machine learning. Le géant du web alimente également une base de données pour faciliter la détection des enregistrements audios falsifiés.

 

Le laboratoire FAIR de Facebook travaille actuellement sur le projet de « désidentification ». Il invente une lA qui applique un filtre sur des vidéos afin d'empêcher leur exploitation par des logiciels de reconnaissance faciale qui peuvent générer des DeepFakes. Par ailleurs, pour sensibiliser un grand nombre de personnes à travers le monde, Facebook propose actuellement un concours « Deepfake Detection Challenge » (DFDC) e n partenariat avec Microsoft et des médias internationaux tels que la BBC. 

« L'informatique doit être au service de chaque citoyen. |...] Elle ne doit porter atteinte ni à l'identité humaine, ni aux droits de l'homme, ni à la vie privée, ni aux libertés individuelles ou publiques ». En novembre 2019, la CNIL met en avant sa volonté d'instaurer un réel cadre législatif et réglementaire concernant la reconnaissance faciale, donc à la « conception » de DeepFakes visuels. L e respect de la vie privée et le droit à l'image semblent effectivement remis en question pour répondre à des enjeux
stratégiques, économiques et politiques.

 

Autre lien : https://www.aege.fr/news/intelligence-artificielle-et-deepfakes-la-naissance-de-nouveaux-risques-strategiques-8139

Besoin d'un détective privé ou d'un expert intelligence économique ?

Exposez en toute confidentialité votre besoin.

  • Lun – Ven
    • 08:30 am – 06:00 pm
  • Sam – Dim
    • Fermé
Logo AGENCY E

Retrouvez notre agence de détective privé spécialisée en intelligence économique en Seine et Marne (77), dans l'Yonne (89) et dans le Finistère (29).

Téléphone : 09.81.29.85.55

Sécuriser - Maîtriser - Protéger

©Droits d'auteur - AGENCY E - Tous droits réservés 2025

Nous avons besoin de votre consentement pour charger les traductions

Nous utilisons un service tiers pour traduire le contenu du site web qui peut collecter des données sur votre activité. Veuillez consulter les détails dans la politique de confidentialité et accepter le service pour voir les traductions.