Context and Caution in Environmental AI

Item

Titre de l'article, la conférence ou du rapport
Context and Caution in Environmental AI
Chercheur.e(s) ou institution(s) porteuse(s)
Michael Anthony
Date de publication ou diffusion
7 octobre 2025
Début de l'extrait
0:23
Résumez le document en un bref paragraphe (Type de technologies d'IA ?)
Lors du AI + Environment Summit 2025, Michael Anthony (cofondateur et directeur exécutif de Vertify.earth) souligne les limites des analyses écologiques produites par l’IA lorsque les modèles restent déconnectés du terrain. S’appuyant sur deux situations rencontrées directement par son équipe, il montre comment des modèles globaux peuvent générer de sérieux angles morts faute de données locales.

Le premier cas survient lors d’un mandat effectué par l’équipe d’Anthony pour le gouvernement de l’État de Goa (Inde), qui souhaitait mieux comprendre la dynamique de ses forêts et leur potentiel de décarbonification. En utilisant les données JEDI de la NASA, l’équipe obtient des résultats manifestement erronés. Anthony comprend rapidement que JEDI a été entraîné quasi exclusivement à partir de données provenant d’Amérique du Nord, d’Amérique du Sud, d’Europe et d’Afrique. Ce faisant, peu de données pertinentes sur l’Asie du Sud était mobilisé dans l’analyse initiale. Ce faisant, l’équipe se tourne vers un ensemble de données LiDAR collectées localement dans différentes régions d’Asie du Sud. En les combinant avec l’imagerie Sentinel pour réentraîner un modèle de deep learning adapté au contexte écologique réel des forêts du Goa, la qualité des prédictions s’améliore immédiatement, démontrant que la robustesse de l’IA dépend toujours du maillon le plus faible de sa chaîne de données.

Le second cas se déroule à Hambourg, où son équipe analyse des images aériennes visant à analyser le couvert végétal de la ville. Entre 2021 et 2023, le modèle indique une augmentation drastique de végétation. Anthony et son équipe réalise que la différence obtenue sur le plan des résultats n’a rien à voir avec une évolution réelle du paysage : les images de 2021 ont été prises en plein mois de février, tandis que celles de 2023 datent de juillet. Un simple effet saisonnier, invisible pour le modèle, mais évident pour quiconque connaît le terrain et les cycles végétatifs.

En conclusion, Anthony rappelle que sans données situées ni compréhension du contexte, l’IA interprète des motifs qu’elle ne comprend pas : « If there is no context, there is no truth ». L’enjeu réel n’est donc pas ce que l’IA peut voir, mais la manière dont nous choisissons d’interpréter et d’utiliser ce qu’elle voit.
Quel est l'objectif du document?
L’objectif de la conférence est de montrer que l’IA appliquée à l’environnement n’est fiable que lorsqu’elle est enracinée dans des données locales, situées et contextualisées. Michael Anthony cherche à sensibiliser les décideurs, les développeurs et les analystes au fait que les modèles globaux, même très sophistiqués, peuvent produire des résultats trompeurs lorsqu’ils ignorent les réalités écologiques, sociales et logistiques du terrain. Il appelle à une vigilance accrue dans l’usage des données, à une attention au “ground truth”, et à une gouvernance responsable capable de reconnaître les limites structurelles de l’IA environnementale.
Insérez une fiche analyse critique - annotation
L'enquête située comme registre discursif
Le conte moral (cautionary tale)
Figures narratives employées. Ex. : cerveau artificiel, assistant intelligent, compagnon, etc.)
Dans son intervention, Anthony mobilise une figure narrative typique du “failure-case story”, en s’appuyant sur deux scénarios d’échec (Goa et Hambourg) pour révéler la vulnérabilité structurelle des modèles d’IA utilisé dans l’analyse écologique. En racontant comment des modèles réputés robustes (par exemple, JEDI) produisent des conclusions erronées lorsqu’ils sont confrontés à des contextes mal représentés dans les données, il transforme l’erreur en outil démonstratif. Le récit de ces échecs n’a pas pour fonction d’invalider la technologie, mais de rendre visibles les conditions de production des données, les écarts contextuels et les biais intégrés aux modèles. L’échec devient ainsi une méthode critique qui permet de comprendre les limites épistémiques de l’IA.
Autres fiches liées à celle ci qui vont apparaître dans le bas de la fiche sur edisem comme contenus recommandés
Climate Change AI (CCAI)
AlphaEarth Foundation
Fait partie de quel dossier?
Dossier - Pratiques narratives de l'IA

Linked resources

Items with "Is Part Of: Context and Caution in Environmental AI"
Title Class
Michael Anthony Person
Items with "(sous)thématique de l'analyse / annotation: Context and Caution in Environmental AI"
Title Class
L'enquête située comme registre discursif Annotation
Le conte moral (cautionary tale) Annotation
Items with "Le contenu à relier (ressource physique, actant, conceptuelle): Context and Caution in Environmental AI"
Title Class
L'enquête située comme registre discursif Annotation
Le conte moral (cautionary tale) Annotation
Items with "isRelatedTo: Context and Caution in Environmental AI"
Title Class
Nephoscope Event
Items with "Autres fiches liées à celle ci qui vont apparaître dans le bas de la fiche sur edisem comme contenus recommandés : Context and Caution in Environmental AI"
Title Class
How AI uses our drinking water
Items with "Autres fiches liées à celle ci qui vont apparaître dans le bas de la fiche sur edisem comme contenus recommandés: Context and Caution in Environmental AI"
Title Class
We're Doing AI All Wrong. Here's How to Get it Right
Items with "Ressource(s) associée(s) (ressource physique, actant, conceptuelle): Context and Caution in Environmental AI"
Title Class
IA sensible, empreinte invisible : critique des récits écologiques génératifs Annotation
L’échelle des modèles comme enjeu politique et écologique Annotation
Matérialiser le numérique : infrastructures, dépendances et empreintes Annotation
Récit d’outil planétaire Annotation
Récit de démocratisation et de service au bien commun Annotation
Récit de performance et de rupture technologique Annotation
Récits d’ambivalence : faire dialoguer l’IA avec son propre coût écologique Annotation
Une vision socio-technique de l’innovation climatique Annotation

Annotations

There are no annotations for this resource.