Deepfakes expliqué : l’IA qui rend les fausses vidéos trop convaincantes
Voir c’est croire. Eh bien, au moins c’était le cas avant que nous réalisions que les gens pouvaient facilement et de manière convaincante truquer des vidéos pour propulser des canulars et réécrire l’histoire. Bien que nous ayons trouvé des moyens de démystifier la plupart des images de canular, il existe un développement technologique qui continue de s’accélérer, ce qui rend plus difficile de savoir comment distinguer ce qui est vrai et ce qui est faux.
Les deepfakes changent tout ce que nous pensions possible en termes de vidéos trafiquées. Voici ce qu’il faut savoir sur ce que sont les deepfakes, ainsi que les risques que cette technologie comporte…
Qu’est-ce qu’un deepfake ?
Le terme deepfakes vient d’une combinaison des mots « apprentissage en profondeur » et « fakes ». En effet, un logiciel d’intelligence artificielle formé à la synthèse d’images et de vidéos crée ces vidéos. Ainsi, la définition d’un deepfake est une fausse vidéo ou image générée à l’aide de l’IA pour remplacer le visage et la voix de la figure représentée. Cette IA peut superposer le visage d’un sujet (la source) sur une vidéo d’un autre (la cible). Pendant ce temps, des formes plus avancées de technologie deepfake peuvent synthétiser un tout nouveau modèle d’une personne en utilisant les gestes faciaux de la source et des images ou une vidéo du sujet qu’elle souhaite imiter.
La technologie peut créer des modèles faciaux basés sur des données visuelles limitées, comme une image. Cependant, plus l’IA doit travailler sur des données, plus le résultat est réaliste.
C’est pourquoi les politiciens et les célébrités sont des cibles si faciles pour les deepfakes, car il y a tellement de données visuelles disponibles en ligne que le logiciel peut utiliser. Étant donné que les logiciels deepfake sont disponibles sur des plates-formes open source, les internautes affinent et s’appuient continuellement sur le travail des autres.
D’où viennent les deepfakes ?
La technologie derrière les deepfakes a été développée pour une multitude de raisons. Tout comme Photoshop, le logiciel a des utilisations professionnelles, de divertissement et amateurs. Et tout comme Photoshop, bien que les créateurs originaux n’aient aucune intention malveillante lors de la création du logiciel, cela n’a pas empêché les gens de l’utiliser à des fins malveillantes.
La technologie d’échange de visages était initialement principalement utilisée dans l’industrie cinématographique. L’un des exemples les plus célèbres se trouve dans le film de 2016 Rogue One : A Star Wars Story. Dans le film, les cinéastes ont utilisé la technologie d’échange de visage et de synthèse vidéo pour recréer le personnage de Grand Moff Tarkin.
Une version plus jeune de la princesse Leia a également été créée dans le film. Dans les deux cas, les modèles des visages des acteurs originaux ont été superposés aux acteurs remplaçants.
Des applications comme Snapchat utilisent également la technologie d’échange de visage pour créer des filtres amusants pour les utilisateurs. Les développeurs derrière ces applications affinent continuellement la détection et le suivi des visages pour appliquer ces filtres plus efficacement.
D’autres ont développé des outils de synthèse vidéo pour créer des hologrammes à des fins pédagogiques. Par exemple, un projet a développé un logiciel de synthèse vidéo et faciale afin que le témoignage des survivants de l’Holocauste puisse être présenté sous forme d’hologrammes interactifs dans un musée.
La technologie Deepfake progresse rapidement
L’apprentissage automatique rend la vie plus facile, mais dans ce cas, il facilite considérablement la contrefaçon. Tout comme l’art généré par l’IA change l’industrie de l’art, les deepfakes ont changé la nature de la vidéo en ligne. Mais certains de ces changements sont négatifs.
Premièrement, les logiciels deepfake sont largement et librement disponibles. FakeApp, par exemple, est un choix populaire pour créer des deepfakes. Vous n’avez pas besoin de compétences avancées pour appliquer un échange de visage, le logiciel le fera pour vous.
Mais puisque l’IA et l’apprentissage en profondeur aident à créer des deepfakes, la technologie s’améliore également et devient plus convaincante à un rythme alarmant. Parfois, ces modifications ne sont pas visibles à l’œil nu, ce qui rend difficile de dire ce qui est réel et ce qui ne l’est pas. Il existe des signes révélateurs pour vous aider à repérer un deepfake, comme l’écrêtage des bords ou la distorsion des visages à certains angles.
Dans un monde en proie aux fausses nouvelles, des deepfakes convaincants pourraient s’avérer être une force chaotique contre ce que nous croyons être vrai. La montée en puissance des deepfakes se produit également à un moment où la synthèse vocale IA et les générateurs de voix IA progressent également.
Non seulement l’IA peut générer de fausses vidéos, mais elle peut également générer des modèles vocaux pour les personnes. Cela signifie que vous n’auriez pas besoin d’un imitateur pour donner l’impression qu’un politicien fait une déclaration scandaleuse. Vous pouvez entraîner l’IA à imiter sa voix à la place.
Les conséquences des deepfakes
Bien que vous puissiez utiliser des deepfakes pour créer des vidéos divertissantes, de nombreuses personnes utilisent également des deepfakes à des fins malveillantes. Les gens ont utilisé FakeApp pour créer de fausses vidéos de célébrités dans des scénarios compromettants.
De plus, dans la plupart des pays, aucune loi ne traite encore de ce type de contenu, ce qui le rend difficile à réglementer. Bien que nous soyons encore loin de la dystopie gouvernée par la désinformation et les fausses preuves vidéo que nous voyons dans des films comme The Running Man, nous ne connaissons déjà que trop bien les effets des fausses nouvelles.
Les conséquences des deepfakes utilisés à des fins politiques sont doubles. Premièrement, cela rend les fausses nouvelles beaucoup plus faciles à diffuser. Les vidéos sont plus susceptibles que le texte ou les images de convaincre les gens que quelque chose de fictif s’est réellement produit. Les gens croient déjà aux gros titres de faux sites Web sans aucune preuve.
Un exemple de deepfakes utilisés pour induire les gens en erreur est le deepfake de 2022 qui a rendu une vidéo du président ukrainien Volodymyr Zelenskyy disant aux troupes de se rendre. Cela s’est avéré faux, mais la vidéo a quand même circulé sur les réseaux sociaux.
D’un autre côté, les deepfakes pourraient également enhardir les politiciens lorsqu’ils évitent de rendre des comptes. Ils pourraient toujours facilement affirmer qu’un enregistrement audio ou vidéo est en fait un deepfake.
Comment combattons-nous les deepfakes ?
Il peut être difficile de se protéger des vidéos deepfake. Mais il existe des moyens par lesquels les entreprises s’efforcent de rendre les deepfakes plus faciles à repérer. Il existe une variété d’outils visant à lutter contre les fausses vidéos malveillantes. Beaucoup de ces outils utilisent l’IA pour détecter la falsification des vidéos.
La AI Foundation a créé un plugin de navigateur appelé Reality Defender pour aider à détecter le contenu deepfake en ligne. Un autre plugin, SurfSafe, effectue également des vérifications similaires. Ces deux outils visent à aider les internautes à discerner le vrai du faux.
Des sites Web réputés de vérification des faits se sont également étendus à l’appel de vidéos trafiquées. Pendant ce temps, Microsoft a également lancé une technologie pour aider à lutter contre les vidéos deepfake.
Même le département américain de la Défense a investi dans un logiciel pour détecter les deepfakes. Après tout, que se passerait-il si une vidéo convaincante d’un dirigeant mondial apparaissait en ligne, déclarant la guerre ou le lancement d’un missile contre un autre pays ? Les gouvernements ont besoin d’outils pour vérifier rapidement la légitimité d’une vidéo.
Conséquences involontaires de l’apprentissage automatique
Il ne fait aucun doute que la technologie de l’IA et l’apprentissage automatique en profondeur améliorent nos vies à bien des égards. Mais la technologie a aussi des conséquences imprévues. Il est difficile de prédire comment les gens peuvent utiliser certaines technologies à des fins malveillantes, et les deepfakes en sont un exemple.
Laisser un commentaire