[ITMAI] Journée d'étude et ateliers

« Images trompeuses et modèles d'intelligence artificielle »

Accès rapides : Youtube | Github

Le cycle de journée d’étude et journée d’ateliers « Images trompeuses et modèles d’intelligence artificielle » (ITMAI) est une activité de recherche que nous avons organisée les 12 et 13 octobre 2023 au Fresnoy – Studio national des arts contemporains, avec le groupe international de recherche Arcanes (CRILCQ et Université Laval). La journée d'étude nous a permis d’aborder des sujets variés autour de l'IA, l'art, les médias et la société. Elle a été suivi d’une journée d’ateliers au sein de laquelle des modèles ou des méthodes computationnelles ont été expérimentés ou vues.

D’un point de vue institutionnel, cette journée a constitué un jalon inédit dans le travail commun entre le Fresnoy et l’Ircam Centre Pompidou pour réfléchir aux implications de l’intelligence artificielle au sein des pratiques artistiques de l’image et du son.

De plus, d’un point de vue international, cette journée a regroupé des chercheurs en provenance du Japon, de la France, du Royaume-Uni, de l’Irlande et du Canada. Cette rencontre a notamment été pensée pour contribuer à de futurs travaux d’excellence, en particulier dans un contexte où le Fresnoy s'est doté depuis quelques années d’un groupe de recherche, afin de penser création artistique et recherche théorique (Fleischer, Canal Studio, 2023).

Enfin, d’un point de vue thématique, les médias génératifs occupent dans le paysage des pratiques numériques une place de premier plan. Notre constat de départ repose sur le fait que la circulation des images artificielles dans les médias entraîne un doute sur la nature des images dans un sens général. Pour traiter de ces images, il faut aller au-delà de la surface et s’intéresser aux modèles ou aux données en tant que sujet technique et philosophique. La synthèse se compose en trois volets distincts présentés ci-dessous.

Art et esthétique

La journée d'étude a offert un aperçu approfondi sur le rôle de l'intelligence artificielle dans l'art et l'esthétique, avec la participation de chercheurs de diverses institutions. Kazushi Mukaiyama de l'Université du futur Hakodate a présenté l'évolution de son programme IA, *Shizuka*, de la création d'images fixes à des séquences narratives de type manga. En parallèle d’une réflexion sur le langage, le chercheur a présenté une méthode d’entraînement d’un modèle génératif récent (modèle de diffusion) en incorporant ses propres dessins d'artiste. Terence Broad de l'University of the Arts London a apporté une perspective singulière sur l'IA générative, avec une approche hacker, opérant directement sur les modèles (GAN et modèle de diffusion), ou sur les données, pour produire des œuvres visuelles où visages et corps apparaissent transfigurés.

Olga Kisseleva de l'Institut International Art&Science, Paris, a examiné le rôle de l'art comme médiateur entre l'intelligence humaine et l'IA, montrant leur interaction, avec des thèmes tels que la viralité, l’urbain, le végétal. Frank Madlener, directeur de l'IRCAM Centre Pompidou, Paris, a discuté des conséquences philosophiques, éthiques et esthétiques de l'IA dans la culture et les médias, et son impact sur la créativité humaine. Qu’advient-il d’une culture dont l’industrie a intégré en son sein les technologies de l’apprentissage automatique ?

Ainsi des discussions ont été conduites sur l’historicité de l’art algorithmique, sur la donnée comme pratique, ou encore sur le concept d’authenticité dans l’esthétique artificielle. Les intervenants on notamment souligné l'importance de la création de datasets personnalisés dans les pratiques de l'IA générative. Enfin, la question du dépassement d'une époque tant marquée par la technologie de l'apprentissage profond a été débattue en regard de remarques sur l'histoire – paradoxalement peu connue, du Computer Art.

Sciences de l'IA et implications sociopolitiques

Sur un autre volet, la journée d'étude a mis en exergue les implications scientifiques et sociopolitiques de l'intelligence artificielle. Vincent Nozick de l'Université Gustave Eiffel, Paris, a traité de l'évolution des *deepfakes* dans les vidéos et du passage aux méthodes d'apprentissage automatique (modèles VAE) pour leur détection. Nicolas Obin de l'IRCAM Centre Pompidou, Paris, a élargi cette discussion aux *deepfakes* audio ou à la synthèse vocale, en soulignant leur impact sur le journalisme, l'industrie culturelle et l'art contemporain.

Constantine Boussalis du Trinity College, Dublin, en représentant des sciences humaines, a souligné l'importance des techniques computationnelles, en particulier la vision par ordinateur, dans l'étude de la communication visuelle politique. D’autre part, Fabien Richert de l'Université du Québec à Montréal a présenté une étude sur les assistants virtuels intelligents, révélant comment ceux-ci brouillent les frontières entre réel et virtuel, humain et machine.

Les discussions qui ont suivi chacune des présentations ont mis en relief les rapports qu’entretiennent les sciences avec l’arrivée des technologies de l’apprentissage profond. On comprend notamment la façon dont ces outils produisent à la fois un trouble sur la nature des médias, mais aussi engendrent des perspectives dans le domaine de l’authentification des médias eux-mêmes. Ces diverses présentations ont illustré de manière approfondie les effets de l'IA sur les sciences, la société et le politique, ainsi que les défis éthiques et pratiques qui se posent.

Façons de faire et horizon quantique

À travers les ateliers de recherche associés à la journée d'étude, plusieurs aspects de l'intelligence artificielle dans l'art et de la recherche ont été abordés. Nous avons animé deux ateliers explorant l'interaction avec des modèles d’IA. Le premier, « Machine Unlearning », se focalisait sur le réseau d'apprentissage profond MobileNET pour déjouer la reconnaissance d'image à l’aide d’inputs graphiques aléatoires codés en JavaScript. Les les particpants se sont approrié le code pour examiner les biais et l’incertitude du modèle.

Le second atelier, « GANs et usage de faux », se basait sur un environnement de travail spécialement conçu pour la recherche sur les réseaux adversaires génératifs (Robillard, 2022). Cette session visait à découvrir un tel réseau, en particulier à travers la phase d’entraînement et à travers l’apparition d’artefacts au sein des images générées par le modèle tout au long de cette phase.

Enfin, Alain Lioret de l'Université Paris 8 a introduit « L’Art génératif quantique », explorant l'intégration de l'informatique quantique et de l'IA dans l'art. Cet atelier s'est penché sur les principes de la superposition quantique, de l'intrication et de la téléportation, démontrant leur potentiel comme outils novateurs pour les artistes.

Perspectives

En résumé, le cycle ITMAI participe d’un état des lieux de la recherche et des productions visuelles ou sonores dans plusieurs domaines de l’IA, afin de mieux saisir ses implications dans l'art, la société ou la recherche. Les perspectives ouvertes concernent en particulier la façon dont des études ou des recherche-créations sur les médias génératifs peuvent être conduites, et la façon dont celles-ci participent d'une réflexion plus large sur les rapports entre médias, art et technique.

La journée d’étude a été filmée. Les montages ont ensuite été éditorialisés avec l'aide de Mathéo Pougalan pour être mis en ligne sur la plateforme Youtube du groupe de recherche Arcanes (lien). D’autre part, les résumés et biographies des contributeurs, ainsi que les ressources ateliers sont publiés sur la plateforme Github https://github.com/robillardstudio/itmai.

Prev