Deepfake : l'Intelligence Artificielle au service de la fake news

Published: March 13, 2019, 8:46 a.m.

\xc9pisode 148 : La lutte contre les fake news est devenue un des grands axes de travail des g\xe9ants du web comme Facebook ou Google. Nous vous pr\xe9sentons dans cet \xe9pisode ce qui peut r\xe9volutionner ces fakes news : le Deepfake !

##Le DeepFake : les vid\xe9os trafiqu\xe9es##

DeepFake, ou permutation intelligente de visages, est une technique de synth\xe8se d'image bas\xe9e sur l'intelligence artificielle. Elle est principalement utilis\xe9e pour combiner et superposer des images et des vid\xe9os existantes sur d'autres images et/ou vid\xe9os.

##Au d\xe9part le buzz part de Reddit##

La premi\xe8re fois que l\u2019on a entendu parl\xe9 de DeepFakes c\u2019est sur Reddit.

Avec notamment au coeur des discussions une application gratuite, simple d'utilisation baptis\xe9e \xabFakeApp\xbb. Il s'agit d'un soft qui en utilisant du\xa0machine learning, est capable de d\xe9composer frame par frame une vid\xe9o, pour remplacer le visage de quelqu'un par quelqu'un d'autre.

Mais attention, il ne s'agit pas d'un simple trucage cin\xe9matographique\u2026 non, non.

En nourrissant l'algorithme de nombreuses photos, celui-ci est capable de reconstituer un visage dans ses moindres d\xe9tails et de le faire parfaitement correspondre \xe0 un autre, en reconstituant, y compris, les parties qu'il ne conna\xeet pas.

Et comme bien souvent sur Reddit on en parle avec un angle forc\xe9ment Trash.

L'utilisation premi\xe8re de\xa0Deepfakes\xa0a donc \xe9t\xe9 de remplacer le visage d'acteurs ou d'actrices pornos par celui de c\xe9l\xe9brit\xe9s.

Plusieurs internautes s'en sont ainsi servis pour cr\xe9er des vid\xe9os \xe0 caract\xe8re pornographique en y incrustant les visages de c\xe9l\xe9brit\xe9s comme ceux de Jessica Alba ou Scarlett Johansson.

\xc9tude c\u2019est \xe0 ce moment que le buzz deepfakes est devenu un sujet grand public.

\u2014\u2014

##Quand Barrack Obama insulte Trump en vid\xe9o##

Au-del\xe0 des diff\xe9rentes pol\xe9miques li\xe9es aux contenus pornographiques, la technologie \xabdeep fake\xbb peut aussi \xeatre utilis\xe9e pour d\xe9sinformer.\xa0

Pour d\xe9noncer ces potentiels dangers, le m\xe9dia BuzzFeed avait fait beaucoup de bruit en avril dernier en partageant\xa0une vid\xe9o de Barack Obama\xa0traitant Donald Trump \xabd'idiot total et absolu\xbb.

\xc0 l'aide d'une intelligence artificielle sp\xe9cialis\xe9e, le cin\xe9aste Jordan Peele, avait \xe9t\xe9 capable de cr\xe9er un faux Barack Obama capable de dire ce qu'on lui demande de dire.

Impressionnant !

\u2014\u2014

##Plusieurs technologies de pointe qui \xe9merge au m\xeame moment##

Le Facial Reenactment

La capacit\xe9 de\xa0reproduire \xe0 l'identique\xa0des expressions faciales.\xa0

Le motion transfer

Des chercheurs de l'universit\xe9 de Berkeley ont aussi r\xe9cemment partag\xe9\xa0le fruit de leurs travaux\xa0sur le \xabmotion transfer\xbb. Une technologie permettant de dupliquer les mouvements d'un corps sur un autre.

Lyrebird

L'application\xa0Lyrebird\xa0d\xe9veloppe par exemple son propre outil de clonage des voix.

En\xa0avril 2018, Lyrebird annon\xe7ait avoir d\xe9velopp\xe9 une technologie d\u2019intelligence artificielle capable d\u2019imiter n\u2019importe quelle voix en se basant sur un enregistrement d\u2019\xab\xa0une minute seulement\xa0\xbb

Face to Face

Des chercheurs Allemands ont d\xe9j\xe0 cr\xe9\xe9 le \xab\xa0Face to Face\xa0\xbb qui permet le Deepfake sur une vid\xe9o en direct !
Heureusement pour le moment cette technique n\u2019est pas disponible au public !

Nvidia

Des chercheurs de l'entreprise Nvidia, \xe0 la base sp\xe9cialis\xe9e dans la puissance de calcul, ont construit\xa0leur propre outil\xa0de fabrication de \xabdeep fake\xbb. Ils sont capables de mettre en concurrence deux algorithmes pour obtenir la meilleure imitation possible. L'un \xe9tant charg\xe9 de copier le style d'une vid\xe9o en y ajoutant un visage tandis que l'autre juge si cette copie est cr\xe9dible et si la r\xe9ponse est non, tente de l'am\xe9liorer.\xa0

\u2014\u2014

##Le Deep Fake l\u2019arme absolu de la d\xe9sinformation qui fait peur aux institutions##

Gr\xe2ce \xe0 l'ensemble de ces outils, le risque que la production de vid\xe9os \xabdeep fake\xbb ne devienne une v\xe9ritable industrie est r\xe9el.\xa0

En septembre 2018, 3 \xe9lus am\xe9ricains ont d\xe9cid\xe9 de s'emparer de ce sujet \xe0 l'approche des \xe9lections de mi-mandat aux \xc9tats-Unis. Ils ont voulu inscrire le \xabdeep fake\xbb sur la liste des menaces contre \xabla s\xe9curit\xe9 nationale\xbb.

En France, le probl\xe8me est aussi devenu un objet d'inqui\xe9tude.\xa0

Un rapport de l\u2019IRSEM intitul\xe9 \xab\xa0Les manipulations de l\u2019information : Un d\xe9fi pour nos d\xe9mocraties\xa0\xbb souligne le fait que ces vid\xe9os \xabdeep fake\xbb pouvaient participer dans les prochaines ann\xe9es \xe0 une \xabatomisation extr\xeame de l'information, avec la disparition ou la fragilisation des acteurs pouvant servir de tiers de confiance\xbb.

\u2014\u2014

##Quelles armes contre d\u2019\xe9ventuelles tentatives de manipulation##

Pour tenter de lutter contre ces manipulations d'un nouveau genre, plusieurs institutions ont d\xe9cid\xe9 de mettre en place leur propre outil de v\xe9rification.

Aux USA

Aux \xc9tats-Unis, l'agence de recherche am\xe9ricaine de d\xe9fense li\xe9e au Pentagone, la DARPA, a\xa0financ\xe9 \xe0 hauteur de 68 millions de dollars\xa0des projets technologiques luttant contre les \xabdeep fake\xbb.

InVid un projet europ\xe9en

Les m\xe9dias font aussi partie de ce combat.
L'AFP est par exemple partenaire du\xa0projet europ\xe9en InVid\xa0(pour In Video Veritas).

Destin\xe9 aux journalistes, ce plug-in qui peut \xeatre t\xe9l\xe9charg\xe9 sur n'importe quel navigateur internet est cens\xe9 les aider \xe0 rep\xe9rer les vid\xe9os truqu\xe9es.

Il permet notamment de savoir si une vid\xe9o a \xe9t\xe9 manipul\xe9e techniquement avant d'\xeatre mise en ligne.

Facebook et Google

Facebook et Google ont d\xe9j\xe0 annonc\xe9 qu\u2019ils d\xe9veloppaient leurs propres logiciels de d\xe9tection.

France

En France des chercheurs travaillent sur un logiciel qui pourraient d\xe9tecter aussi les Deepfake !
Le plus gros probl\xe8me pour ces logiciels de d\xe9tection est de suivre l\u2019am\xe9lioration permanente de cette technique du deepfake.

##L'\xc9ducation##

Notre conseil, c'est de surtout garder un esprit critique envers les vid\xe9os et les infos que nous trouvons de mani\xe8re g\xe9n\xe9rale et en particulier sur les r\xe9seaux sociaux.
Il faut essayer de toujours faire l'effort de recouper les informations que l'on trouve avec plusieurs sources afin de pouvoir en \xeatre s\xfbr !

. . .

Le Super Daily est fabriqu\xe9 avec une pluie d'amour par les \xe9quipes de Supernatifs.

Nous sommes une agence de content marketing et social media bas\xe9e \xe0 Lyon. Nous aidons les entreprises \xe0 cr\xe9er des relations durables et rentables avec leurs audiences. Nous inventons, produisons et diffusons des contenus qui engagent vos collaborateurs, vos prospects et vos consommateurs.

Contact : bonjour@supernatifs.com



H\xe9berg\xe9 par Acast. Visitez acast.com/privacy pour plus d'informations.