J’ai vraiment pas envie de bosser, c’est horrible.
Ouais, je te comprends.
Tu connais le deepfake ?
Deepfake ? Je ne connais pas, c’est quoi ?
Attends, regarde.
C’est Léo là, hein ?
Ouais.
OK. Je pensais que ce serait plus… ou moins…
On a commencé à en parler dans les médias en décembre 2017,
dans un article du magazine Motherboard,
lorsque des vidéos pornos truquées mettant en scène des actrices et autres personnalités connues ont fait leur apparition sur le Web.
Notamment sur Reddit et sur un certain nombre de sites pornos.
L’idée d’utiliser le deeplearning pour remplacer les visages est antérieure.
On peut parler du projet Face2Face,
un projet conjoint entre l’institut Max Planck et l’université de Stanford qui date de 2016,
où les visages d’hommes politiques ont été manipulés pour correspondre aux mouvement du visage d’une autre personne.
Mais étrangement le porno fascine beaucoup plus que la politique,
et c’est à la suite de cet article que l’opinion publique a commencé à se pencher un peu sur le cas des deep fakes.
Ce qui est ressorti de toute cette histoire c’est une crainte,
la crainte que dans un futur proche on ne pourra plus faire confiance aux images.
Et oui, grâce au deeplearning on a fait d’énormes progrès dans les domaines de la manipulation des images,
et aussi de la manipulation audio.
On peut donc générer la voix de quelqu’un afin de lui faire dire des trucs qu’il ou elle n’a jamais dit...
[ "Thank you, stay woke b*tch*s." ]
... et remplacer les visages et les faire bouger de façon extrêmement convaincante,
au point où il devient quasiment impossible de savoir à l’œil nu si il y’a eu un trucage.
Le modèle utilisé a l’époque de la diffusion des vidéos pornos truquées est déjà dépassé,
aujourd’hui il est possible d’aller encore plus loin, on peut carrément éditer chaque paramètre du visage à la souris !
Du coup, il devient légitime de se poser la question
quant à l’impact que cette technologie va 
va avoir sur notre rapport à l’image,
et par extension sur le rapport a notre propre image,
car dans un futur proche, toute personne disposant d’un ordinateur pas trop pourri et d’une connexion internet pourrait manipuler l’image de n’importe qui sans son consentement.
Très tôt dans l’histoire de la photographie et par extension de la vidéo,
on a cherché à modifier la réalité,
tout d'abord dans un but purement artistique,
on peut parler des travaux de Georges Méliès datant de la fin du XIXe siècle.
À cette époque, il existe déjà pas mal de techniques.
On peut voir des effets de double exposition,
on applique de la peinture sur la pellicule
et on découpe des éléments pour recomposer une image totalement différente.
Du coup c’est un peu évident que ces techniques soient utilisées pour falsifier la réalité sans qu’il y ait une volonté artistique derrière,
dans l’optique de faire de la propagande donc.
Et il y a des exemple connus, comme cette photo de Staline ou Nikolaï Yezhov fut retiré après la Grande Purge,
afin de ne laisser aucune trace de son implication dans le régime stalinien.
Parfois certaines manipulations sont vivement critiquées.
Comme dans cette photo de la guerre au Liban qui date de 2006,
où un journaliste de l’agence Reuters s’est fait virer après qu’on ait remarqué que sur l’une de ces photos, il y avait un trucage.
Le journaliste avait ajouté de la fumée pour rendre la photographie beaucoup plus dramatique.
Mais il n’y pas que dans le journalisme où la retouche photo est problématique.
Au Royaume-Uni, le gouvernement a fait bannir cette campagne de pub avec Julia Roberts, car les photos avaient été trop retouchées.
Grâce à l’outil informatique, il existe plusieurs pistes à emprunter afin de démêler le vrai du faux.
On peut parler d’une technique appelée l’analyse du niveau d’erreur.
En gros, lorsqu'on utilise certains formats d’images comme le Jpeg,
les compressions appliquées aux images afin de réduire leurs tailles laissent des artefacts sur celles-ci.
Différents niveaux de compression vont laisser différentes formes d'artefacts.
Si on amplifie les défauts de l’image afin de ne laisser apparaître uniquement que le bruit laissé par ces artefacts,
on peut se rendre compte si celle-ci a été altérée,
car le bruit ainsi obtenu ne sera pas uniforme.
Et c’est pas tout, on peut aussi se pencher sur les métadonnées qui sont accolées aux fichiers images.
Ceux-ci peuvent nous apporter des informations comme le type d’appareil utilisé, la focale, le temps d'exposition, les coordonnées GPS
mais aussi si l’image a été ouverte dans un logiciel d’édition comme Photoshop.
Du coup, l’ensemble de ces techniques peuvent nous indiquer si on est en présence d’une photo altérée.
Aujourd’hui, on commence quand même à adopter des réflexes face aux photos,
Parce que justement on sait à quel point elles peuvent être modifiées,
et quand on a un doute on va souvent utiliser le terme photoshopé pour dire que l’image a subi des retouches.
Mais on reste quand même un peu plus crédule quand il s’agit de la vidéo.
Parce que faire des effets spéciaux, c’est possible,
mais la plupart du temps quelqu’un qui va mettre autant d'effort dans la production d’une vidéo truquée va le faire pour se faire connaître,
là où c’est différent avec le deep learning c’est qu'avec le bon programme, une personne seule peut réussir à manipuler l’image d’autrui
sans faire autant d'effort... pour arriver au même résultat.
Le problème c’est que dans le passé, pour faire du faux il fallait une équipe de spécialistes dans le domaine des effets-spéciaux.
La différence c’est qu'aujourd'hui des programmes existent, permettant à une seule personne sans trop de connaissances informatiques de manipuler la réalité.
Quelque part, c’est pas le fait que n’importe qui puisse créer du porno mettant en scène des personnes non consentantes qui pose problème.
Après tout je peux très bien fermer les yeux et là, je m’imagine Léo tout nu en train de faire des trucs.
Léo !
Ouais mais bon, entre faire ça et créer du faux porno sur mon ordinateur dans l'intimité de ma chambre,
y a pas vraiment de grande différence.
Là où se pose le problème c’est dans la diffusion de ces vidéos.
Déjà parce que une fois diffusée, il y a une atteinte flagrante au droit à l’image.
Mais aussi parce qu'à une petite échelle on peut facilement s’imaginer pouvoir faire chanter des gens
et les menacer de diffuser des vidéos compromettantes,
et dans un monde ou les réseaux sociaux ont pris une place très importante dans nos vies,
la diffusion de ce genre de genre de vidéos pourrait avoir une incidence catastrophique sur la vie des particuliers.
À plus grande échelle, on peut aussi voir ça comme une arme.
Récemment, on a bien vu que des puissances étrangères pouvaient utiliser les réseaux sociaux pour manipuler l’opinion publique.
Et du coup, avec les moyens adéquats, on peut facilement créer du faux en masse pendant les périodes électorales,
afin de salir un candidat ou un parti.
Le but n’étant pas que les gens qui tombent sur des vidéos y croient dur comme fer,
mais plutôt d'éroder la confiance qu’a une population face aux médias.
C’est d’autant plus grave aujourd’hui, car on se trouve dans une période où le recours à l’image et à la bande audio est une pratique courante dans certaines affaires politiques.
Et personnellement, je pense que face à cette question il en va surtout de la responsabilité des plateformes de diffusion,
par exemple le site Pornhub a pris les devants pour supprimer un maximum de vidéos pornos truquées.
Après tout, on ne peut pas arrêter le progrès, mais on peut se servir de ces nouvelles technologies pour repérer le vrai du faux.
Le deep learning c’est pas seulement faire du faux porno,
on peut très bien s’en servir comme d’un outil de détection des deepfakes.
Si la technologie peut provoquer un problème, une autre technologie peut aussi la résoudre,
et c’est déjà une piste étudiée par des chercheurs avec Faceforensic :
un réseau de neurones spécialisé dans la détection des deepfakes.
Il faut maintenant que les plateformes de diffusion de vidéos ainsi que les réseaux sociaux intègrent ce genre d’algorithme afin de pouvoir avertir le public.
C’est une course technologique et on peut s’attendre à ce que tout ce qui va dans le sens de la manipulation rencontre des outils qui permettent de la détecter.
Et la triste réalité, c’est que de toute façon, on n’a pas besoin d’utiliser des effets-spéciaux pour manipuler l’opinion publique grâce aux images.
Juste une recherche sur Youtube sur les sujets chauds comme la guerre en Syrie
peut nous emmener dans un maelstrom de vidéos au montage douteux avec les images qui sont sorties de leurs contextes.
Bref, tout un tas de trucs pas cool.
Le souci, c’est qu’on manque d’esprit critique,
on n’a pas forcément eu d’éducation concernant notre façon de consommer Internet et les réseaux sociaux.
Et du coup, personne ne nous a prévenu qu’il allait falloir utiliser tout ça avec beaucoup de prudence.
Là, le fond du problème, c’est que le deepfake, il se base clairement sur la crédulité des gens.
On a souvent tendance à l’oublier, puis tout le monde hein,
mais on oublie de recouper ses sources ou encore même de regarder l’origine de la source,
parce que c’est chiant, et puis c’est long à faire.
Mais c’est clair qu’une information qui vient du Gorafi, qui est un journal ouvertement faux, ouvertement satirique,
ça n’a forcément pas le même poids qu’une information qui a été publiée à la fois dans Le Monde Diplomatique et dans Le Monde.
Ouais, mais bon après, je suis à peu près convaincu que ça ne limite pas la casse en fait.
C’est sûr que, ça filtre en fait.
On ne va pas avoir un 100% d’informations fiables même avec des sources fiables parce que l’erreur est humaine, tout simplement.
Nous, en tant qu’humains,  on aime ça les petites informations un peu cocasses,
alors c’est facile de rentrer dans ce schéma de croire des choses qui sont fausses.
Parce que c’est toujours plus excitant que la vie qui est un petit peu plus monotone.
De toutes façons, tout est relayé via les réseaux sociaux, et quelque part, les réseaux sociaux, ça nous rend débile.
Euh, c’est plus compliqué que ça...
Et voilà, c’est tout pour moi. J’espère que cet épisode vous a plu.
Vous allez retrouver Ben la prochaine fois où il va vous parler des réseaux sociaux et d’Internet.
N’oubliez pas de laissez un pouce bleu, de vous abonner à la chaîne et d’aller sur Discord.
J’aime pas trop dire ça, pouce bleu, Discord, machin, chaîne, truc, cool, Internet, vidéo, chouette, Youtube !
Bonjour et bienvenue sur Youtube Drama, la première émission francophone dédiée aux dramas sur Youtube !
Alors, on commence tout de suite avec Léo.
Et, Léo, c’est pas un gros chibreur quand même ?
