Deep fake

Item

Title
Deep fake

Linked resources

Items with "primary topic: Deep fake"
Title Class
TEST - recherche - La duperie dans les deepfakes Collection
Items with "has top concept: Deep fake"
Title Class
« À l'origine, le terme deep fake, ça vient de la contraction entre deep learning, qui est la technologie qui a impulsé les méthodes de manipulation de l'image au moyen de l'intelligence artificielle, et de fake, faux. Le terme désigne ce qu'on nomme aussi, en français cette fois, hypertrucage. Et ça semble apparaître comme un phénomène nouveau, pourtant il s'inscrit dans une généalogie que l'on s'efforcera de vous restituer. D'ailleurs le deep fake peut être décrit comme un nouvel outil pour un vieux problème de désinformation, selon James Andrew Lewis du Center for Strategic and International Studies à Washington. Alors les premières applications grand public permettant de fabriquer ce type de vidéo truqué se diffuse à partir de 2015, le terme deep fake en lui-même apparaît pour la première fois au cours de l'année 2017, et c'est au départ le fait d'un utilisateur de la plateforme américaine Reddit qui qualifie de deep fake des vidéos pornographiques manipulés dans lequel il a inséré le visage de célébrités comme la chanteuse Taylor Swift. » author self citation
« À partir des résultats, on va pouvoir élaborer des recommandations pour les éducateurs, les concepteurs de programmes éducatifs, etc., pour des programmes qui vont, encore une fois, au-delà de juste la sensibilisation, qui est déjà là hyper importante, mais on veut aussi travailler sur l'agentivité de ces jeunes-là et les rendre plus responsables de leur rôle dans notre société. » author self citation
« Ce qu'on a remarqué, c'est que ça suscite des inquiétudes fortes, des réactions fortes, des émotions fortes quand on fait visionner [des deep fakes] à des personnes, et on a l'intuition quand même que cela peut modifier la perception du vrai et du réel sur plusieurs plans, et notamment parce qu'il y a une perte de la référentialité. Ça bouscule un peu et ça trouble l'identité d'un sujet qui est devenu une marionnette, et c'est pour ça que ça impressionne, et évidemment ça questionne la crédibilité de toute vidéo. On pourrait dire peut-être même que c'est la spécificité du deep fake : que ça suscite une émotion plus forte qu'un texte ou qu'une image fixe qui serait fausse. » author self citation
« Ce qui est intéressant avec cette vidéo-là, c'est que quand on la regarde dans cette qualité-là, elle est vraiment impressionnante. Alors parfois, on se dit : "ouais moi je m'aperçois que c'est un deep fake, je le vois bien quand même." Quand on est prévenu, effectivement il y a certaines personnes, surtout les graphistes en fait, qui peuvent se dire : "ouais, moi je vois quelque chose", mais quand on est pas prévenu, on se fait avoir. Et alors, il faut bien voir aussi que cette vidéo-là, si on la met sur les réseaux sociaux, elle va perdre en qualité et alors là par contre on ne pourra plus voir les petits détails qui font qu'on détecterait peut-être un deep fake visuellement. » author self citation
« Cette question des deep fakes nous amène dans une filiation culturelle qui est très ancienne. [...] C'est une question qui intéresse l'imaginaire depuis très longtemps, autant au niveau des promesses que des craintes. Alors on parle beaucoup de ces craintes dans l'espace public actuellement, mais on voit que ces craintes existent depuis très longtemps, se sont réverbérées à plusieurs reprises évidemment au niveau du cinéma, et que ce concept, si vous voulez, d'animation d'une figure humaine, elle est très ancienne : on pense aux statues animées dans les temples de l'Égypte ancienne, donc on remonte à plusieurs millénaires, où on animait des statues justement en relation avec les croyances pour faire croire par exemple à l'existence réelle d'un dieu. » author self citation
« Comme le suggère Sabine Süsstrunk, qui est directrice de recherche en informatique des images dans un institut en Suisse, j'ai relevé, dans un récent interview qu'elle produit avec une historienne de la photographie qui s'appelle Estelle Blaschke et un artiste Armin Linke, qu'elle propose, elle formule un doute sur la véracité des images et qui peut servir de constat de départ pour examiner, justement, la photographie contemporaine. Je lis en quelques lignes son propos : "Mais c'est ça le truc, vous savez ce que c'est un "deepfake" ou est-ce que ce n'est pas un "deepfake" ? Ce sont des questions que nous devons nous poser. Un portrait artificiellement généré est en tout cas un "deepfake" , mais une photo de moi avec un nouveau rouge à lèvres ou de nouvelles lunettes est-ce un "deepfake" ? D'un côté, mais oui ! Ce ne sont pas mes lunettes et je ne porte jamais de rouge à lèvres. Cela devient donc problématique. Je pense que la société a appris que les "fakes" existent, mais nous ne savons pas encore ce que nous faisons de cette connaissance." Donc, pour Süsstrunk, plutôt que d'établir des distinctions formelles entre le vrai et le faux, il serait nécessaire, en réalité, de comprendre les rapports entre documents photographiques et trucages, du point de vue d'un examen des modalités de production de l'image. C'est-à-dire, depuis l'infrastructure de l'image. Or, les médias génératifs sont aussi des médias computationnels, c'est-à-dire qu'ils sont les produits de calculs. Comment alors penser l'authenticité de ces images ? » author self citation
« D'un autre côté, l'effet pervers que tout ça va avoir c'est que si on commence à douter le la véracité de chaque vidéo qui nous est présenté, ce que ça crée c'est une certaine apathie de la réalité où finalement on doute absolument de tout et il n'y a plus rien pour nous qui est vrai ». author self citation
« Dans les faits, il y a un déséquilibre total entre le perfectionnement des sytèmes pour créer les deepfakes versus ceux pour les détecter. [...] Sur certains panels où j'étais avec des experts techniques en recherche universitaire sur les algorithmes, on nous disait : même nous, qui sommes des experts du domaine, chacun d'entre nous on pourrait être trompé n'importe quand par un vidéo en pensant que c'est un original alors que c'est une contrefaçon. Donc même les experts peuvent se faire berner facilement. » author self citation
« Depuis février 2020, il y a certaines compétitions qui ont été mises en place à l'internationale [...] pour que les programmeurs et les meilleurs développeurs à travers le monde développent des solutions de détection des deepfakes parce que justement c'est tellement un problème en ce moment les détecter. [...] Ils sont partis dans le cadre de ces concours-là de données publiques, [...] donc qui étaient déjà accessibles publiquement, qui avaient certains autres éléments de validation tiers pour aller valider qu'il s'agissait de l'original. Ils ont réussi à avoir des taux de détection qui étaient un petit peu supérieur à 80%, donc quand même près de 20% du contenu qui est passé complètement sous le radar des meilleurs joueurs sur la planète. Dans le cas où on a pris des données privées, c'est-à-dire : « voici un jeu de données que vous n'avez peut-être jamais vu avant, donc difficile à valider avec des sources tierces, allez-y avec vos outils pour essayer d'avoir la meilleure détection possible », on est à peine au-dessus de 60% de détection. [...] Presque 40% du contenu contrefait, totalement, faux, est impossible à détecter par les meilleurs joueurs de la planète. » author self citation
« Est-ce que le numérique introduit véritablement un changement dans la façon dont on peut tromper par le visage, ou bien on peut tromper en représentant le visage? Qu'est-ce qu'il y a de différent entre le deepfake et un trompe-l'œil de la Renaissance? » author self citation
« Et puis on passe à tout le monde éducatif. Quand on regarde les différentes interventions du côté de l'éducation et puis le contexte éducatif, on voit qu'on essaie de combattre l'hypertrucage en aidant la société par exemple à acquérir les connaissances nécessaires en littératie médiatique et à la responsabiliser dans les rapports à l'information. Donc on essaie de trouver des moyens pour aider les personnes à développer un œil aiguisé pour détecter la désinformation sous forme d'hypertrucage. » author self citation
« Ici, on est dans une juridiction où pour avoir une protection de droit d'auteur sur le fichier vidéo, sur l'œuvre cinématographique, sur le fichier audio, en ce moment on a besoin d'un humain. Donc on est vraiment sur un droit d'auteur qui est basé sur l'auteur humain comme personne de qui émane la création. Dans beaucoup de juridictions c'est le cas également. Mais qu'en est-il dans ce cas-ci où c'est un algorithme qui va générer le fichier? Est-ce qu'on est face à une œuvre originale? Est-ce qu'on peut réclamer une protection de droit d'auteur sur cet amalgame-là qui va être fait? [...] À partir du moment où par exemple un humain va choisir le contexte, va choisir la mise en scène, va choisir les données qui vont être intégrées ensuite et traitées par l'algorithme, il y a quand même une certaine sélection de la mise en scène du côté artistique. Donc, le fichier résultant dans la majorité des cas pourra être protégé par le droit d'auteur et donc faire l'objet de licences ou autres. Ensuite, est-ce que ça ça a été fait par ailleurs en violation des droits d'un tiers? Souvent oui, aussi. Donc vous voyez que le niveau de questions sous-jacentes explose quand on commence à se creuse la tête sur le droit d'auteur. » author self citation
« Il y a la question des mésusages de l'IA. Alors, on la retrouve dans le domaine créatif, même si elle peut avoir des incidences moins importantes que dans d'autres. On peut aborder, par exemple, la question des deepfakes, des fake news, de différents éléments qui dans des pratiques créatives peuvent, finalement, aussi, être attentatoires aux droits des personnes, être diffamatoires ou causer aussi un préjudice pour le consommateur qui serait, finalement, abusé par ce type de pratiques qui relève aussi des deepfakes. » author self citation
« L'IA génératif suscite des rhétoriques, des imaginaires sociaux dans la sphère médiatique et dans l'espace social. Elle s'inscrit donc dans un contexte d'hypermnésie ayant institué, on le sait, une crise de la vérité où les valeurs d'authenticité, de légitimité et d'autorité sont mises à mal. Les "deepfakes" sont utilisés à des fins de tromperie et de manipulation pour générer des fausses nouvelles, des canulars, en faisant émerger de nouvelles formes d'exploitation qui mettent en jeu plusieurs aspects de la vie sociale. Ces falsifications algorithmiques deviennent problématiques lorsqu'elles circulent dans un écosystème socionumérique déjà fragile où il est de plus en plus difficile de distinguer le vrai et le faux. » author self citation
« Les deep fakes sont des contenus audio ou vidéo de synthèse qui vont avoir été modifiés en utilisant différentes techniques d'apprentissage profond, le fameux deeplearning en terme d'intelligence artificielle, pour créer des vidéos qui ont l'apparence d'être véridiques ou qui souvent auront été créés dans l'intention de tromper le public. » author self citation
« Les deep fakes sont devenus des appâts par le nombre de vues et de clics qu'ils suscitent, et si on les replace dans cette histoire longue de l'image d'actualité, sachant que l'information est devenue un spectacle et qu'elle influence en tant que tel le débat public, la vidéo de Nancy Pelosi qu'on a évoquée tout à l'heure se laisse regarder dans ce contexte de personnalisation de la vie politique. L'image-spectacle devient image-événement, et donc ce deep fake est devenu un deep fake-événement en quelque sorte, et au fond ce deep fake se comprend comme produit de cette évolution. D'ailleurs, ce qui est assez troublant c'est que l'image d'actualité que représentent certains deep fakes, pas tous mais un certain nombre en tout cas, s'inscrivent dans un élan scientiste et positiviste qui vise à fournir au public la représentation la plus exacte de la réalité, afin de la capturer grâce à la performance croissante des technologies utilisées [...]. Or, ces mêmes progrès techniques qui permettent de capturer la réalité sont aussi ceux qui vont permettre de trafiquer ces représentations de la réalité, comme dans les deep fakes. » author self citation
« Les deepfakes s'appuient, plus seulement, mais s'appuyaient généralement sur des modèles génératifs de type Generative Adversal Network (GAN) qui étaient très populaires pour générer des images très photoréalistes. La particularité de ces algorithmes, c'est qu'ils reposent sur deux réseaux de neurones. Le premier, générateur, fabrique un échantillon, tandis que le deuxième, qu'on qualifie à l'occasion de discriminateur, doit déterminer si ce qui a été produit provient du générateur ou non. Je rappelle, et ça, Massimo Leone, qui avait fait une présentation il y a quelques années dans le cadre des séminaires Arcanes, avait rappelé cela et je tenais à le souligner de nouveau. » author self citation
« On pousse beaucoup pour qu'une des solutions soit à travers l'intelligence artificielle, donc contrer les deep fakes avec la technologie-même qui est en train de la créer, donc repérer les indices indiquant la présence de manipulation audiovisuelle par exemple. » author self citation
« StyleGAN—you know the deepfakes of people—there's a website [called] ThisPersonDoesNotExist that's all using a GAN, using StyleGAN, and the way the GAN works is that we have these two networks, a generator and a discriminator. When I'm teaching about this I sort of introduce this like one person is a forger—that's the generator—and then the discriminator is a detective. So if someone's forging money, trying to make fake bank notes, then the discriminator is the person at the bank trying to figure out is this real money or is this fake money, and these are extremely effective. So the discriminator is trying to tell what's a real image compared to what's being generated, what's fake, and the generator's got this adversarial opposite objective which is: I want to generate things that trick the discriminator, passed off as being real. In this setup, the generator has one objective, and that objective is: I just need to trick this other network, I just need to get my bank notes passed off as real money, so to speak, or get my images of people or whatever passed off as being real, training data. » author self citation
Items with "has broader: Deep fake"
Title Class
Anxiété Concept
Items with "has narrower: Deep fake"
Title Class
Arts trompeurs Concept
Items with "has related: Deep fake"
Title Class
3D facial rig Concept
Animation faciale Concept
Items with "a comme concept: Deep fake"
Title Class
TEST - recherche - La duperie dans les deepfakes Collection

Annotations

There are no annotations for this resource.