IA générative, puissances du faux et régimes d'authenticité
Item set
Items
-
Deepfake: L'IA au service du faux
-
Les Dangers de l'Intelligence Artificielle
-
La prochaine révolution de l'Intelligence artificielle
-
Sora : l'outil pour générer des vidéos par IA
-
L'apprentissage profond : une révolution en intelligence artificielle
-
Intelligence artificielle : l'homme est-il devenu obsolète
-
Literary AI | Plot Robot
- My lines drawn by AI
- Table ronde - Olga Kisseleva, Frank Madlener, Gaëtan Robillard
- Après l’intelligence artificielle, l’éthique, les tics, l’esthétique
- De l’intelligence en essaim à l’intelligence artificielle
- Deepfakes ou synthèse vocale
- Introduction - Gaëtan Robillard et Renée Bourassa
- Converser avec l’IA : entre feintise ludique, stratégie de tromperie
- Mesonet : Détecter la falsification de vidéos deepfakes
- Table ronde - Fabien Richert, Constantine Boussalis, Gaëtan Robillard
- Table ronde - Vincent Nozick, Nicolas Obin, Gaëtan Robillard
- Table ronde - Terence Broad, Kazushi Mukaiya, Gaëtan Robillard
- Artful Intrusions—A Hacker's Guide to Generative AI
- The Computational Turn in Visual Political Communication Research
- « Mais avec le canon, avec les exemples qui méritent d'être imités, l'hypothèse qu'il y a quelque chose d'invariant qui est transmis par les objets du monde et qui méritent d'être imités, cela va nous aider à développer des jugements. Un jugement de comment sélectionner, de comment faire des choix à des moments-clés dans un projet, en regardant les choix qui ont été faits par le passé. Et ça pose un petit peu problème, peut-être, ça dépend de comment on le voit, que toute source n'est, bien sûre, pas égale. La valeur d'une œuvre n'est pas donnée, mais doit être démontrée. Pas nécessairement expliquée, non plus, parce que ça nécessiterait l'analyse de choses qui parfois résistent aux mots. Ça, c'est peut-être une dimension de quelque chose de transcendantal ou presque même religieux qui peut nous mettre un peu mal à l'aise, de mythique dans la force iconique de certains exemples. La question de la sélection du canon, je la travaille pas mal avec la pensée de Michel Serres dans mon travail. »
- « Je différencierais, peut-être, l'acte de création que parfois nous pouvons associer plutôt à une sorte de création ex nihilo ou qui est, par moment, teintée par une sorte de romantisme du génie artistique pour l'emmener vers l'imitation et l'invention pour ramener l'idée que nous choisissons selon des choses qui se trouvent déjà dans le monde dans lequel nous sommes nés et que nous héritons de nos prédécesseurs, et que nos prédécesseurs ont eu à tenter de comprendre à gérer et à imiter, né, aussi, dans un monde qui ne leur ressemblait pas. Il y a aussi un aspect d'apprentissage à vivre dans un monde qui n'était pas parfaitement fait pour nous que je trouve aussi intéressant comme universitaire. »
- « J'aime bien l'expression d'Anne Alombert de "recodage organologique" de l'activité psychique qui introduit ces nouveaux organes artificiels. Comment, justement, si on les comprend de manière continue, ces nouvelles technologies, ces nouveaux organes de l'intelligence artificielle, viennent reconfigurer à la fois nos pratiques, mais nos pratiques qui sont liées avec un milieu technique déjà constitué. Ça joue à différents niveaux. »
- « Un des éléments qui m'a intéressé ou étonné, disons, dans cette recherche sur l'action de l'intelligence, c'est la sorte de récurrence ou réapparition des mêmes questionnements, approches ou postures vis-à-vis des technologies. J'en ai choisi un parmi d'autres, c'est, par exemple, cet aspect réflectif des technologies. C'est-à-dire que ces technologies pourraient augmenter, approfondir ou complexifier, par exemple, notre connaissance de l'intelligence. C'est ce que défend Yann Le Cun avec cette idée que, finalement, l'intelligence artificielle, au-delà de toutes les applications, ça va nous permettre de découvrir les mécanismes sous-jacents et les principes à l'œuvre dans l'intelligence naturelle ou artificielle. Cette intelligence artificielle va nous aider pour certaines choses, mais va surtout nous aider à avoir une meilleure compréhension de l'intelligence elle-même. C'est assez étonnant, parce que ce type de raisonnement, on peut le retrouver dès les années 1960 avec Norbert Wiener, mais si je le restreins au domaine de l'architecture, donc avec Nicolas Negromonte, entre autre, quelqu'un d'assez important dans le domaine de l'architecture. Dans les années 1970, il y avait à peu près la même idée, on peut dire. C'est-à-dire que les technologies, c'était même l'ordinateur, permettraient de nous faire découvrir des moyens, de découvrir les mécanismes de la conception, donc on arriverait à mieux découvrir les critères de qu'est-ce que la conception. Évidemment, l'intelligence artificielle amène des connaissances différentes, mais, à la fois, la manière de poser les questions et la manière d'interagir ou de réfléchir sur ces technologies. J'ai le sentiment qu'il y a une sorte de redondance depuis une soixantaine d'années et je pense que c'est intéressant de voir que, finalement, s'il y a des progressions sur certains points, il y a des éléments sur les manières de penser, notre relation avec les technologies qui me semblent relativement similaires. »
- « Pour arriver à sensibiliser les étudiants à ces fictions génératives, on a un processus qu'on a élaboré en collaboration avec Philippe Bootz il y a déjà quelques années. On a un modèle très simple, très générique et on essaie de l'appliquer. Alors, tous les ans, ça change un peu, il y a des nouveaux outils qui apparaissent et on essaie de s'adapter, mais le modèle général est relativement le même. On a, dans un premier temps, la définition d'un monde. C'est-à-dire, qu'on va définir un monde fictionnel à travers un modèle qu'on va définir. Là, depuis quelques années, le modèle qu'on propose aux étudiants, pour gagner du temps, car on pourrait les faire travailler sur le modèle, on utilise un modèle très générique. On a des récits, des actants, des objets, des lieux, des affects et des événements. On va demander aux étudiants d'instancier chacun de ces éléments du monde par une description simple : un mot, une phrase courte, etc. Ça, c'est la première étape. »
- « We try to inspire students with this history of narrative methods and generative narrative methods that were pre-digital. Things like sonets, some of the Ulipo experiments. We have a picture [on the slide] of an early plot robot. An other example of just ways that people used different templates or models to create stories or try to automate the creation of stories before computers. Also history of mutimedia, narratives and stories from AI is a source and contexte. Also, I have started, and I'm hoping this year to do more with. This is what I've started teachins, a long history of story generators, pre-digital, then also digital ones that have led up to large language model of AI, so my contemporary students understand that every story generator has a model of language of storytelling that it realizes. You know, Plato assumes that a story is a plot and so, by looking at these different attemps to model storytelling, we can look at some of the ideological assumptions about what's important in a story, and we can also critique those and try to come up with better models of story as a result. And I think that Samuel'S ecosystem is another good example of trying to encourage our students to think about the different ways that you can generate stories and come finding some of these different methods as, maybe, a future goal, rather than the large language model AI and the predictive AI technology. »
-
L'Idéologie sémiotique des deepfakes
-
Deceitful Media: Artificial Intelligence and Social Life after the Turing Test
-
Un avocat se sert de ChatGPT qui invente des décisions de justice | JDM
-
Tricherie et intelligence artificielle: L’éléphant dans la salle de cours
- « Les deepfakes s'appuient, plus seulement, mais s'appuyaient généralement sur des modèles génératifs de type Generative Adversal Network (GAN) qui étaient très populaires pour générer des images très photoréalistes. La particularité de ces algorithmes, c'est qu'ils reposent sur deux réseaux de neurones. Le premier, générateur, fabrique un échantillon, tandis que le deuxième, qu'on qualifie à l'occasion de discriminateur, doit déterminer si ce qui a été produit provient du générateur ou non. Je rappelle, et ça, Massimo Leone, qui avait fait une présentation il y a quelques années dans le cadre des séminaires Arcanes, avait rappelé cela et je tenais à le souligner de nouveau. »
-
Computing Machinery and Intelligence
- « Je vais commencer par une distinction qui est au cœur de ma définition de la puissance du faux. C'est une distinction oppositionnelle proposée par Deleuze dans ce qu'il appelle "la narration véridique" qui prétend au "vrai" et "la narration falscifiante" qui abandonne cette prétention pour mieux en libérer "les puissances du faux" . Pour Deleuze, la narration véridique, c'est donc celle qui déploie un récit, qui présuppose des enchaînements logiques entre les plans filmiques et des rapports de causalité, qui lie des personnages, des objets, des situations qui sont clairement identifiables. Donc, il ne s'agit pas de penser le dualisme vrai / faux du point de vue du régime de la fiction. Je cite, je l'aime beaucoup, le théoricien Thomas Pavel pour qui la fiction déploie des mondes "incomplets, car on ne saura jamais combien d'enfants a lu Lady Macbeth (...) Inconsistants, car les phrases suivantes sont toutes les deux vraies : 1) Sherlock Holmes habitait Baker Street. 2) Sherlock Holmes n'a jamais habité Baker Street. Irrémédiablement imaginaire enfin, car en cas de besoin d'un détective privé, nul ne cherchera les services de Sherlock Holmes" (Pavel, 1988, p.98) Mais pour Deleuze, il ne s'agit pas de parler de la fiction en terme de vrai ou de faux. Lui, ce qui l'intéresse, c'est la tension entre le véridique et le falsifiant que je vais expliquer tout de suite. »
- « Le concept de puissance du faux, il apparaît dans les travaux de Deleuze qu'il consacre au cinéma, dans "L'image mouvement" (1983) et "L'image-temps" (1985), dans lesquels il élabore, on peut dire, une classification de signes. Ça me parle tout particulièrement, en tant que sémiologue de formation. Une classification de signes, donc, susceptibles de rendre compte des spécificités et des qualités de l'image mouvement, de l'image temps, l'image cinématographique. C'est une étude qui est à la fois sémiotique, esthétique, philosophique, et qui cherchait à se dégager de l'emprise, à l'époque, des études cinématographiques dominées par les approches narratologiques. Il s'agit là, pour Deleuze, mais aussi si on pense à ses travaux avec Guattari, de s'affranchir d'une certaine forme de structuralisme qui s'appuyait sur la linguistique et ses outils pour analyser une quantité d'objets dont le cinéma. On peut penser aux travaux de Christian Metz (1964) qui cherchait aussi à sortir de cette emprise. Deleuze nous explique que le cinéma n'est pas structuré comme un langage, donc contre Christian Metz. Il nous dit que c'est une matière signalétique qui comporte des traits de modulation de toutes sortes : sensorielles, kinésiques, intensifs, affectifs, rythmiques, tonals... Il nous parle d'une masse plastique, d'une matière insignifiante et asyntaxique. Ça a une certaine importance du point de vue des choses qu'on va voir tout de suite après. »
-
Modèles d'intelligence artificielle et régimes d'authenticité (MIARA) : dossier thématique. Œuvre média génératif - "Abstraction and Reasoning Corpus" AA Cavia
- « Pour parler du problème de description, je suis allé chercher dans la philosophie analytique de Nelson Goodman, une discussion sur l'authentique et le fallacieux. Dans "Ways of Worldmaking" (1978), il s'appuie sur le constat que plusieurs versions du monde peuvent coexister. Il propose une large réflexion sur les cadres de référence à travers lesquels une vérité peut être énoncée. L'enjeu pour Goodman ne résiderait pas tant dans le fait de décrire le monde d'une façon vraie et unique, mais dans le fait de comparer différentes façons dont nous décrivons ce monde. Les implications sont vastes, mais ce que je voulais souligner, c'est la façon dont, selon Goodman, une vérité se produit systématiquement à partir d'un test. Dans notre étude des médias génératifs, cette proposition prend tout son sens : comment, en effet, attester du régime d'authenticité d'un média ou d'une œuvre reposant sur un modèle génératif ? Dans l'étude, on retrouve trois cas qui prennent le test comme point de départ pour examiner les modèles et leurs productions médiatiques. Il y a un atelier qui s'appelle "Machine Unlearning" auquel, d'ailleurs Renée Bourassa a participé, c'était en 2023 au Fresnoy, où il s'agissait de tester un modèle en tentant de le tromper. Le test permet une certaine interaction avec le modèle et une sorte d'évaluation de sa production. Ça c'est un point important. Puis, il y a une autre œuvre en ligne qui s'appelle "Abstraction and Reasoning Corpus" que je vous invite à aller consulter et qui est référencée dans le rapport en ligne, sur le site d'Arcanes. Bref, ces travaux mettent en avant le raisonnement et la programmation informatique comme une approche conceptuelle de la donnée, faisant directement écho à la proposition de Goodman. »
-
Critical Climate Machine : une exposition de Gaëtan Robillard pour lutter contre la désinformation climatique grâce à l'intelligence artificielle
-
Calculer les images. Photographie et intelligence artificielle
- « Le retour sur ce travail, c'est déjà une tentative de mieux définir le terme d'authenticité qui est chargé de sens, bien sûr. Il peut être compris à la lumière des écrits de Walter Benjamin, évidemment, mais il faut rappeler d'abord qu'il comprend deux significations bien distinctes. C'est-à-dire, d'une part la question de l'origine ou de la paternité : d'où vient l'œuvre, d'où vient le document. Puis, d'autre part, ce qui fait autorité. Donc, il y a l'originel, l'origine, originalité qu'on pourrait presque dire, et autorité dans le sens, là, de la conformité, de ce qui se conforme à l'original. Ici, je reprends une définition conventionnelle, commune, du terme. Pour revenir sur le sens donné à Benjamin, j'ai compris que c'était un sens un petit peu complexe. Le sens donné par Benjamin à ce terme fluctue et renvoie davantage à la reproductibilité technique, comme on le sait, et à une philosophie de l'aura de l'art. Cette aura ou ce terme d'authenticité chez Benjamin est controversé. Notamment, il y a un article de Bruno Latour sur le sujet qui revient sur des erreurs de logique quant à la façon dont Benjamin explicite le terme. Ce qu'on peut dire aussi, c'est que dans une ère marquée par l'hypermédiatisation, la reproductibilité technique des images semble finalement participer d'une diversité de processus de création originaux. Donc, je pense, par exemple, au "sampling" dans la création sonore, mais on peut penser aussi à un artiste ou à une œuvre comme celle de Nam June Paik qui, agissant sur les tubes cathodiques, opérant directement sur l'appareil technique, modifie le flux des images et donc, produit une œuvre originale qui se dégage, d'ailleurs, du contexte des médias de masse duquel il fait œuvre. Donc, le concept de Benjamin est un peu compliqué à appliqué pour parler des productions de l'IA générative. »
- « Je vais quand même vous lire cette citation que je trouve très éclairante de Pascal Mougin (2023) "On pourra faire l'hypothèse d'un continuum dynamique entre littérature humaine et littérature machinique et s'aviser que l'enjeu n'est pas de savoir ce qui distinguerait une littérature spécifiquement humaine d'une littérature déléguée à une machine de Turing - question vaine - mais de comprendre ce que devient la littérature dès lors que l'écrivain, sauf à faire sécession du monde, est comme tout un chacun en relation quotidienne avec les IA qui opèrent dans l'environnement numérique. De même que l'appareil photo et la caméra ont changé les manières de voir et donc d'écrire, de même l'IA informe aujourd'hui la subjectivité humaine au point que l'écrivain, qu'il sollicite ou non l'IA, est d'ores et déjà un tant soit peu augmenté par les potentialités de celle-ci." »
- « On arrive à nos récits génératifs. Là, je vais notamment m'appuyer sur Jean-Pierre Balpe qui est vraiment notre écrivain-auteur emblématique dans le monde francophone. Il fait des récits génératifs depuis la fin des années 1970. Ces récits, ils vont fonctionner à la manière d'un écrivain automatique. Les textes ne sont pas préécrits, mais les mots sont combinés en temps réel, à partir d'un logiciel d'écriture automatique capable d'engendrer les pages d'un roman sans fin. Avec le texte généré, je vais recharger la page et c'est un autre texte qui apparaît. Là, on voit bien que la notion de texte change, puisqu'il s'agit d'un texte sans origine, ni fin. Même la première version du texte émise par ordinateur n'est pas la première version. La dernière n'est jamais la dernière, que pour un lecteur en particulier. Le processus prend le pas sur le résultat. »
- « On peut parler franchement, la façon avec laquelle on gère et on évalue les thèses doit être changée. On ne peut pas rester comme ça. On est en mutation. L'IA générative aujourd'hui, c'est un outil hyper puissant. Sans doute, elle est beaucoup plus puissante que moi en lisant quinze livres. Je suis beaucoup plus subjectif qu'elle. La subjectivité n'est pas toujours mauvaise. Par contre, évidemment, l'IA générative va améliorer notre productivité en terme d'analyse des données et de synthèse des données. Même, dans la qualité d'écriture, elle va nous aider à faire de belles communications claires. Elle écrit mieux que nous, mieux que moi au moins. J'en suis certain. Quand il écrit, c'est impressionnant. Il y a de la clarté dans l'écriture, mais il y a beaucoup de répétition et il y en a beaucoup trop, mais pas de faux. Il y a juste un manque de clarté. Donc, on peut évaluer, discuter avec l'IA des démonstrations, de la pensée critique. On peut partager des choses et elle peut pousser aussi vers de nouvelles idées. C'est vrai, cela pousse des pistes pour les étudiants. »
- « Le doctorant travaille sur une masse de connaissances qui est énorme. Énorme. Donc, dans l'écriture post-numérique, ce que je vais proposer à mes collègues et qui sera notre rôle, qui sera le rôle de formation doctorale et de l'écriture. Alors, même, j'ai été très loin, j'ai beaucoup discuté avec ChatGPT autour de ces questions. Je voulais savoir comment il voyait les choses, lui aussi. Où il va ? Et je voulais vivre l'expérience. J'aimerais bien vous entendre là-dessus. J'ai peu de choses à vous dire, mais sans doute avez-vous plein de choses à me raconter. Il se trouve que dans la formation doctorale, si je considère que l'IA génératif (on n'utilise pas forcément ChatGPT, on utilise un truc un peu plus simple, mais l'IA est un peu plus objective et un peu moins commerciale), nous avons cette question : qu'attendons-nous de la thèse si on utilise l'intelligence artificielle générative ? Inconsciemment, là, j'ai fait une semaine intensive sur le métaverse dans la ville. Et il n'y a pas un jour qui ait passé sans parler de l'éthique. Donc, il y a une éthique. La question d'éthique, d'usage d'information, de la qualité de l'information, la référenciation... Donc dans la thèse, on va faire un effort pour voir les dimensions "éthicales" chez le doctorant. On va évaluer son sens de l'analyse critique. Parce que l'IA va lui donner beaucoup. Est-il en mesure de consommer cette information ? Est-il capable de se mettre en position de pensée critique et aller un peu plus loin ? On ne va pas juger le doctorant, dans l'avenir proche, sur sa contribution à la connaissance brutale parce que l'IA génératif peut faire des analyses de connaissance générée, mais on va trouver qu'on va rentrer au niveau de ce qu'on appelle la méta-intelligence. »
- « Le deuxième constat, aussi important dans la formation au doctorat, on part de l'idée qu'on forme forme les jeunes doctorants ou les futurs doctorants, peu importe l'âge, parce que quelqu'un qui fait un doctorat, c'est quelqu'un qui veut faire une carrière académique et de chercheur, on adopte aussi quelqu'un qui a une relation professionnelle à la connaissance. Parce que lui, c'est un professionnel de la connaissance qui va travailler. Donc, l'IA aussi, entre parenthèses, nous pique une partie de cette professionnalisation de la connaissance. Parce que la connaissance, elle va de plus en plus vers l'IA. »
- « On pousse beaucoup pour qu'une des solutions soit à travers l'intelligence artificielle, donc contrer les deep fakes avec la technologie-même qui est en train de la créer, donc repérer les indices indiquant la présence de manipulation audiovisuelle par exemple. »
- « On peut se demander si une machine peut devenir un créateur artistique reconnu. Certains vont dire, par exemple, que le créateur, ou la machine en fait, ne fait qu'imiter [...] le style de Shakespeare pour le texte, un Rembrandt pour la peinture. Donc ils ont des exemples et tout ce qu'ils font c'est imiter, mais en même temps, la question qui se pose c'est que tout créateur humain fait la même chose à quelque part, dans un sens. Bien sûr il peut innover, mais il va aussi pour innover se baser sur une connaissance artistique et culturelle très profonde qu'il va mettre de l'avant. »
-
Écrire en bonne intelligence (artificielle)
- « Très lié à la question qui intéresse ce séminaire, qui est le faux et puisqu'on essaie après de faire convergence avec l'IA, c'est aussi la très célèbre définition de sémiotique donnée par Umberto Eco, six ans après McLuhan. Donc, vous voyez, ils étaient des contemporains. Eco disait que la sémiotique c'était la discipline qui étudie tout ce qui peut être pour mentir. Si quelque chose, si le signe ne peut pas être utilisé pour mentir, alors il ne peut pas non plus être utilisé pour dire la vérité. Donc, au final, on peut l'utiliser pour rien, donc ce n'est pas un signe. Il mettait en avant le problème de comme quoi les signes, c'est quelque chose de conventionnel, c'est quelque chose de culturel. C'est quelque chose qui appartient à un système de règles partagé, social, etc. Mais au final, on peut discuter, on peut critiquer, cela fait cinquante ans. Aujourd'hui, les sciences cognitives, la perception est étudiée, comment le cerveau des individus influence également comment on perçoit les signes, c'est beaucoup plus important aujourd'hui. Avec Eco, c'est intéressant de voir comment il analysait le succès ou l'échec de la communication. »
- « L'IA génératif suscite des rhétoriques, des imaginaires sociaux dans la sphère médiatique et dans l'espace social. Elle s'inscrit donc dans un contexte d'hypermnésie ayant institué, on le sait, une crise de la vérité où les valeurs d'authenticité, de légitimité et d'autorité sont mises à mal. Les "deepfakes" sont utilisés à des fins de tromperie et de manipulation pour générer des fausses nouvelles, des canulars, en faisant émerger de nouvelles formes d'exploitation qui mettent en jeu plusieurs aspects de la vie sociale. Ces falsifications algorithmiques deviennent problématiques lorsqu'elles circulent dans un écosystème socionumérique déjà fragile où il est de plus en plus difficile de distinguer le vrai et le faux. »
-
La Conférence de Dartmouth, naissance de l’Intelligence Artificielle
- « Selon la perspective du sommet fondateur de Dartmouth sur l'intelligence artificielle tenue en 1955, la part de hasard que manifeste notre créativité ne serait pas un privilège de l'humain ou de la vie puisqu'elle participe à cette aptitude de la matière à s'organiser spontanément. La notion de créativité ne permet plus de distinguer l'humain de la machine. »
- « Les méthodologies créatives qui en découlent mettent en cause la relation entre imitation, innovation et cette notion d'originalité. Si certains prétendent que la machine est incapable, par elle-même, d'un acte créateur authentique, car dépourvue d'intentionnalité et de jugement esthétique, rappelons que les procédés humains de création ne se font pas ex nihilo, mais qu'ils procèdent souvent d'un long apprentissage imitatif, et que certaines pratiques esthétiques récentes valorisent le "remixage", soit le recyclage des créations artistiques antérieures. »
- « Rappelons donc que le terme automate vient du grec ancien "automatos" (αὐτόματος) qui signifie "agir de sa propre volonté" étant dirigé de l'intérieur et capable de s'animer par lui-même. C'est une machine philosophique. Donc, l'automate, qui hérite des problèmes du rapport du corps et de l'esprit, circule de Platon jusqu'à Descartes, puis de l'intelligence artificielle. L'automate reconduit ce fantasme millénaire de transcender la condition mortelle et prolonge le rêve d'une altérité qui se joue à travers une figure sans cesse reconduite du double faite à l'image de l'homme. »
-
Physics and Metaphysics of Post-Truth (Or, Do Realia Deliver us from Artefacts of False Witness?)
-
Intelligence artificielle générative : Réseaux antagonistes génératifs (GAN)
-
Neural Architecture - Design and AI
-
Réseaux antagonistes génératifs
-
The Third Atlas – Poursuite
-
Symbiotic Architecture by Manas Bhatia
-
Vers une organologie de l’esprit. Appareils psychiques et appareils techniques
-
Maurane Paradis obtient une Bourse d'aide à la rédaction des Presses de l'Université Laval
-
Quand la machine apprend
-
Tromper / Deceiving
-
Puissances du faux, faiblesses du vrai : tromperie, stratégies d’illusion et intelligence artificielle, dans Tromper / Deceiving
-
Magicalité, simulation et intelligence artificielle : formes et enjeux des puissances contemporaines de l'illusion
-
My Life as an Artificial Creative Intelligence
-
En attendant les robots. Enquête sur le travail du clic
-
L'imaginaire de l'être artificiel
-
Comment lire un roman écrit par une voiture ? La doxa littéraire face à l'IA
-
The Rise of Metacreativity
- Quelques intuitions autour des I.A. en architecture. Ce que nous disent les images générées
- IA et IA : intelligence artificielle et invention architectonique
- La narration générative entre IA symbolique et connexionniste : une expérience transnationale
-
The Creative Mind: Myths and Mechanisms
-
Contre-atlas de l’intelligence artificielle
-
The Singularity Is Near: When Humans Transcend Biology
-
The Singularity is Nearer : When We Merge with AI
-
Critical Theory of IA
- Dimensions narratives de l’IA générative : entre créativité, auctorialité et nouveaux matérialisme
- Récits numériques et intelligence artificielle
- Introduction à la 4e édition du séminaire ARCANES « Des arts trompeurs à l’écosystème socionumérique – Intelligence artificielle et puissances du faux dans les pratiques artistiques et la médiation culturelle : créativité, enjeux sociaux »
- Fooling Ourselves to Death: pour une approche expérimentale et créative des IA
- Médias génératifs et régimes d’authenticité. Retours sur une étude de cas
- Atelier Thèse Post-Numérique – Rédiger une thèse à l’ère de l’IA
-
Museum creates deepfake Salvador Dalí to greet visitors
-
Art in the Age of Machine Learning
- Performativité
- Brouillage entre le vrai et le faux
- Fragilisation des régimes d'authencité
- Fragilisation des régimes d'autorité
- Surprise
-
Anxiété État de trouble psychique causé par la crainte d'un danger, grande inquiétude.
- Socio-numérique
- Sélection éditoriale
- Illusionisme
- Reproduction
- Représentation visuelle
- Psychologie cognitive
- Éthique
- Détecteur de fausse nouvelle