Les deepfakes désignent des images, vidéos ou clip audio qui utilisent l’intelligence artificielle pour simuler de manière réaliste le visage, la voix ou les actions de personnes. Alimentées par des modèles d’apprentissage profond, ces créations synthétiques peuvent paraître réelles. Il existe plusieurs types de deepfake:
Cette technologie consiste à entraîner un algorithme sur de grandes quantités de données, telles que des photos ou des enregistrements d’une personne, afin que le modèle puisse apprendre comment son visage bouge, comment elle parle et comme exprime ses émotions. Ensuite, à partir de ces informations, l’IA crée une version numérique de la personne et peut lui faire “dire” et “faire” des choses qui n’ont pas été dites ou faites dans la réalité. Les deepfake sont fabriqués à l’aide d’outils puissants tels que l’apprentissage profond et les réseaux neuronaux, qui trompent souvent l’œil et l’oreille avec des résultats d’un réalisme troublant.
L’IA peut générer des visages humains entièrement faux qui semblent réels, même si la personne n’existe pas. Pour ce faire, elle utilise une type d’IA appelé *Generative Adversarial Network* (GAN – Réseaux antagoniste génératif), qui apprend à partir de millions de photos réelles à comprendre la structure des visages humains. Une partie de l’IA crée de faux visages, tandis qu’une autre tente de détecter les faux, poussant les systèmes à s’améliorer.
Au fil du temps, l’IA devient si performante qu’elle peut générer de nouveaux visages réalistes en mélangeant les caractéristiques de différentes personnes. Ces visages synthétiques sont souvent utilisés dans les médias et les divertissements, mais ils peuvent également être utilisés à mauvais escient pour des escroqueries ou de fausses identités en ligne.
Si les deepfakes peuvent être amusants et creatifs (comme par exemple mettre son visage dans une scène de film), ils présentent également des risques sérieux. La technologie étant encore en développement et les deepfakes se répandent à une vitesse impressionnante. Malheureusement, ils sont souvent utilisés pour tromper les gens plutôt qu’à des fins récréatives:
Il n’est pas toujours facile de détecter un deepfake, mais il existe des indices. Les experts s’intéressent à la fois aux signes visibles (mouvements faciaux non naturels, scintillements, éclairages bizarres ou évènements improbables), et aux indices invisibles (interférences étranges ou artefacts de pixels que nos yeux ne peuvent pas détecter).
Les deepfakes devenant de plus en plus réalistes, il est important de garder l’esprit critique: vérifiez vos sources, soyez attentif aux défauts visuels ou sonores et, en cas de doute, essayez d’interagir – demandez à la personne de bouger ou d’obstruer son visage.
En cas de doute, laissez l’IA vous aider à vérifer l’authenticité du contenu.
En tant qu’institution de recherche, l’EPFL développe des solutions technologiques pour lutter contre les deepfakes, mais se doit également de sensibiliser le public. L’approche technologique seule ne suffit pas. Voici une sélection de travaux sur lesquels nos laboratoires et centre travaillent pour identifier les deepfake et étudier leurs effets: