Accéder au contenu principal
Vous êtes fondateur
Vous êtes donateur
Vous êtes porteur de projet
Vous êtes fondateur
Vous êtes donateur
Vous êtes porteur de projet

L’intelligence artificielle ou l’art de faire des choix : quand la philanthropie s’interroge

11 juillet 2025

À l’École des Beaux-Arts de Paris, lieu chargé d’histoire, la Fondation de France a réuni le 30 mai dernier les acteurs de la philanthropie, du monde artistique et de la société civile pour une journée de réflexion consacrée aux défis et perspectives liés à l’intelligence artificielle. Un mot d’ordre : éclairer les choix de demain. Cette rencontre s’inscrivait dans le cycle « IA & philanthropie » lancé en février 2025 par la Fondation de France dans le cadre de sa Grande Cause Numérique, avec l’ambition de penser collectivement les enjeux du numérique au service de l’intérêt général.

« Il s’agit de comprendre comment, pourquoi et à quelles conditions recourir à l’intelligence artificielle ainsi - et peut-être surtout - quand s’abstenir. », a déclaré en ouverture Constance Garnier, responsable de la Grande Cause Numérique à la Fondation de France. Après une première journée consacrée à la compréhension de l’IA et de ses implications éthiques, une deuxième centrée sur les retours d’experts du Sommet mondial sur l’IA, cette troisième étape visait à ouvrir une réflexion pour permettre aux acteurs de mieux orienter leurs choix. Comment ? En allant au-delà du clivage entre technophilie et technophobie et en explorant dans quelle mesure l’IA peut-elle contribuer à l’intérêt général dans différents domaines.

Art et IA : former des artistes à l’esprit critique

Le choix du lieu – les Beaux-Arts de Paris – n’était pas anodin. « Un lieu qui invite à la prise de hauteur et à l’interrogation esthétique », a souligné Constance Garnier. Jean-Baptiste de Beauvais, philosophe et directeur des études de l’École, y voit un terrain d’expérimentation unique : « L’intelligence artificielle est à la fois un fait, un outil et un sujet. Nous ne sommes ni technophiles ni technophobes, mais profondément engagés dans une posture de liberté. « Nos étudiants doivent comprendre l’IA, l’appréhender comme un pigment ou un marteau, mais aussi la mettre en crise, la détourner, en faire matière à art. » Une posture d’ouverture et de pluralité, qui permet d’éveiller l’esprit critique. L’artiste et enseignant Julien Prévieu a, quant à lui, présenté une série d’œuvres conçues en dialogue – critique et ludique – avec les outils d’IA : une boîte de Morpion auto-apprenante, des installations sonores explorant les « bugs » des modèles génératifs, ou encore un travail archéologique sur les jeux de données. À partir de fragments textuels extraits des bases d’entraînement de l’IA – menus, e-mails, publicités – il recompose des installations plastiques ou sonores qui exposent ces « matières premières » invisibles, révélant ainsi les logiques culturelles, économiques et politiques souvent occultées derrière les performances des modèles.

L’IA en action : trois initiatives au service de l’intérêt général

Trois retours d’expérience ont ensuite illustré les usages concrets de l’intelligence artificielle dans le champ de l’intérêt général. Chacun à leur manière, ces exemples révèlent les promesses mais aussi des tensions que sous-tend cette technologie. Tanya Perelmuter, cofondatrice avec Anne Bouverot de la Fondation Abeona, abritée à la Fondation de France, est revenue sur la genèse de cette fondation engagée pour une IA responsable, à la fois durable et inclusive. L’absence de femmes dans les écoles d’ingénieurs, l’invisibilisation de certaines populations dans les jeux de données, les biais intégrés dans les algorithmes : autant de constats qui l’ont amenée, avec ses partenaires, à promouvoir une IA conçue et régulée dans une logique d’équité et d’accès pour tous. De la recherche à la formation, en passant par la création de chaires et d’outils pédagogiques, la Fondation Abeona agit à la fois sur les causes et les conséquences de ces déséquilibres. À ses côtés, Pierre Slamisch, cofondateur de l’association Open Food Facts , a expliqué comment l’IA peut devenir un levier pour renforcer l’action citoyenne. Cette plateforme collaborative, qui répertorie plus de quatre millions de produits alimentaires, mobilise des outils d’intelligence artificielle pour analyser plus rapidement les étiquettes, améliorer la transparence sur la composition des produits et accompagner les consommateurs dans des choix éclairés. « L’IA n’est pas là pour remplacer, mais pour amplifier l’impact d’une mobilisation collective. »

Enfin, Mateo Lostanlen, cofondateur de l’association Pyronear , a présenté l’outil développé par l’association à partir de l’IA : un système de détection précoce de feux de forêt qui repose sur une IA embarquée dans de simples micro-ordinateurs, placés en pleine nature. L’objectif : repérer les départs d’incendie en moins de trente secondes, et ainsi limiter les ravages avant qu’il ne soit trop tard. Concrètement, des caméras captent des images à intervalles réguliers, aussitôt analysées sur place par une IA capable d’identifier fumée ou flammes, avant de transmettre automatiquement une alerte aux secours.

Encadrer l’IA : entre droit et responsabilité

Si l’IA questionne les pratiques et transforme les usages, elle interroge aussi nos cadres juridiques et nos responsabilités. Sabrina Hammoudi, docteure en droit et spécialiste des algorithmes, a invité à ne pas se laisser submerger par le mythe de la machine toute-puissante. « Les algorithmes sont fabriqués, paramétrés, entraînés. Ils ne sont ni neutres ni autonomes. Ils sont le fruit de choix humains. » Loin des fantasmes de régulation impossible, elle a rappelé que le droit dispose d’outils pour encadrer les usages, notamment à travers le règlement général de protection des données (RGPD) ou la directive européenne sur l’IA, récemment adoptée. Encore faut-il que les acteurs s’en saisissent. Transparence, intelligibilité, traçabilité des opérations : ces principes ne relèvent pas seulement du juridique, mais de la gouvernance éthique. Pour Sabrina Hammoudi, il est essentiel que les organisations, philanthropiques ou non, développent des compétences internes pour interroger les systèmes qu’elles utilisent ou soutiennent. « Encadrer l’IA ne veut pas dire la freiner, mais assumer la responsabilité de ses usages. » Une approche qui rejoint les préoccupations de nombreux participants, soucieux d’identifier les bonnes pratiques, les zones d’alerte et les leviers d’action concrets dans leurs propres structures.

Loin des discours polarisés, cette journée a proposé un espace de réflexion et d’expérimentation, pour appréhender les mutations technologiques à hauteur d’humain. Entre incertitudes et promesses, l’IA impose en effet de réfléchir avant d’agir. Ou, comme l’a résumé en conclusion Constance Garnier, « ne pas se laisser emporter par la vitesse, mais cultiver l’exigence du discernement ».


POUR ALLER PLUS LOIN

→ Le numérique au service de la démocratie
→ Pour un numérique solidaire, responsable et durable, le rôle clé de la philanthropie
→ « Le numérique peut enfin devenir un outil d’inclusion massif » - Frédéric Bardeau »