Numérique
Si pour la première fois une agence française (La Chose pour Solidarité Sida) a utilisé le deepfake dans une campagne publicitaire, la méthode a posé question.

«AIDS is over.» Vous avez certainement vu passer cette campagne publicitaire le 7 octobre 2019, dans laquelle on voit Donald Trump annoncer la fin du sida. Sur Twitter, premier canal sur lequel la campagne de Solidarité Sida a été publiée, la séquence a fait réagir les internautes. D’après Visibrain, outil de veille des médias sociaux, le hashtag #Treatment4all a été utilisé dans 9 728 tweets sur la journée du 7 octobre 2019.

La séquence qui s’inscrit dans la campagne de sensibilisation «Treatment4allest» est en réalité un deepfake, autrement dit, un montage vidéo, basé sur la synthèse d’image et l’intelligence artificielle... Concrètement, cette technologie consiste à simuler la voix et les mouvements du visage d’une personne pour les détourner et leur faire dire ce que l’on souhaite. Pour l’agence La Chose, à l’origine de la campagne, il était nécessaire de créer un contenu viral et ça a payé. «On a voulu donner de la voix à tous ceux qui n’en auront pas, car comme beaucoup de décisions politiques, souvent, les citoyens n’ont pas trop leur mot à dire», explique Arnaud Girard, concepteur-rédacteur chez La Chose. «Depuis l’apparition du sida, il y a eu énormément de fausses informations et toutes ces fake news ont ralenti la recherche et du coup on s’est dit que ce serait vraiment pas mal de faire la première fake news pour le sida qui n’en est pas une», poursuit-il.

Deux séquences ont été réalisées. Une version courte de 32 secondes dans laquelle le panneau «This is fake news» apparaît à la 15e seconde et une version longue d’1 minute et 4 secondes dans laquelle le même panneau et une interview d’Antoine de Caunes, président d’honneur de Solidarité Sida apparaissent. Si certains internautes ont joué le rôle de modérateur... d’autres en revanche ont été piégés. Pourtant pour l’agence, tous les éléments étaient réunis pour éviter cela. «On a conscience que la voix de Donald Trump n’est pas la même et on a aussi conscience que si Donald Trump avait vraiment annoncé l’éradication du sida, on aurait tous reçu une alerte info», argumente Arnaud Girard. Face à «un besoin de créer du contenu viral, et il n’y a pas de mauvaise technique pour faire du bruit», considère Léo Debernardi, directeur artistique.

 

Un code de bonne conduite

Seulement voilà, dans un contexte où les fake news sont déjà très présentes sur les réseaux sociaux, l’utilisation de vidéos falsifiées fait débat. Les publicitaires et annonceurs doivent-ils s’en emparer ? Nous avons posé la question à Tristan Mendès France, maître de conférences associé à l’université Paris Diderot et spécialisé dans les cultures numériques. «Je ne vois pas de blocage de principe pour une marque qui veut utiliser une simple technologie qui évolue, mais juste des précautions d’usage. La première, qui est essentielle pour moi, est la présence d’un marqueur évident et visible tout au long de la vidéo, expliquant que c’est une fausse vidéo ou un deepfake. Mettre cette empreinte tout au long de la vidéo est essentiel. Du moment que la séquence rentre sur le marché dérégulé de l’information, que sont les réseaux sociaux notamment, elle a sa propre vie et cette séquence, si on ne l’a pas bien protégée, une fois qu’elle part dans cette jungle informationnelle, on ne sait pas ce qu’elle va devenir...» 

Si son utilisation peut sembler légitime dans le domaine de la créativité, il est pour autant essentiel de rappeler que les deepfakes s’inscrivent dans un contexte plutôt inquiétant. Le dernier rapport en date de Deeptrace (septembre 2019), société spécialisée dans la lutte contre ces vidéos falsifiées, apprend que si le phénomène touche très majoritairement la pornographie (96%), il affecte aussi la politique. «Si une marque veut communiquer avec le deepfake, elle doit savoir que cette technologie est née avec deux écueils, deux inquiétudes : les deepfakes pornographiques et les dérives de propagandes politiques», ne manque pas de souligner Tristan Mendès France. Comme pour la relation marques-influenceurs, dans laquelle toute collaboration commerciale devrait être visible.

 

Émerger ou sombrer ? 

Faudrait-il définir un cadre juridique au même titre qu’un délit de contrefaçon ? C’est en tout cas ce que suggère Erwann Le Page, strategy director Public Affairs de Hill+Knowlton Strategies. «Le problème que ça pose, c’est qui va être en charge de savoir si les deepfakes sont utilisés de manière éthique ou pas ? Qui va définir à partir de quel moment cet élément relève de la créativité ou de l’éthique ? Du moment que ce n’est pas extrêmement balisé par la loi, je ne m'y aventurerais pas.» Seule exception faite. «Quand c’est pour une grande cause, comme récemment pour la lutte contre le sida, c’est sans doute légitime pour gagner en visibilité.» Erwann Le Page va même plus loin… «Avoir l’autorisation explicite de la personne qu’on est en train de «falsifier»», serait judicieux. 

Si la détection des deepfakes serait de plus en plus compliquée, à mesure que les IA approchent la perfection – selon le MIT, le deepfake parfait et indétectable verra le jour dans six à douze mois seulement–, certaines initiatives tentent de s'y attaquer, comme celle de la Darpa américaine. Depuis décembre 2018, ce sont 14 678 vidéos deepfakes qui ont été mises en ligne, d’après le rapport de Deeptrace de septembre 2019. 

Alors si les marques ne veulent pas entacher leur réputation, et la publicité, aggraver la crise de confiance, le deepfake est peut-être cette ligne rouge à ne surtout pas franchir. 

 

Lire aussi

Infox : fake, mensonges et vidéo

Un challenge pour lutter contre les «deepfake»

Fake news, vrais impacts en Bourse

Suivez dans Mon Stratégies les thématiques associées.

Vous pouvez sélectionner un tag en cliquant sur le drapeau.