Le capitalisme algorithmique à l’assaut de la philanthropie

Par Jonathan Durand Folco , Professeur à l’Université Saint-Paul, Ottawa
04 July 2023

Depuis l’arrivée de ChatGPT et d’autres outils capables de générer des textes, images et vidéos hautement réalistes, l’« intelligence artificielle » est sur toutes les lèvres. Celle-ci bouleverse déjà plusieurs sphères d’activité (travail, éducation, démocratie, vie intime) sans que la majorité des gens n’ait une idée claire de ce phénomène, de ses origines et de ses impacts complexes sur la société. Si le milieu de la philanthropie est aussi appelé à être transformé par cette révolution technologique, il est nécessaire de prendre un pas de recul et de comprendre ce dont il s’agit avant de se lancer tête baissée dans ce « virage ».

 

De l’IA à un nouveau stade du capitalisme 

Tout d’abord, l’expression « intelligence artificielle » (IA) est un terme parapluie qui désigne une pluralité de techniques, méthodes et processus informatiques permettant de simuler des fonctions cognitives humaines : inférences logiques, analyse prédictive, traitement du langage naturel, reconnaissance visuelle, systèmes décisionnels automatisés, etc. L’IA se décline en d’innombrables applications comme des moteurs de recherche, des filtres d’actualité sur les médias sociaux, des recommandations pour les achats en ligne, des assistants personnels, ou des voitures autonomes. Disons d’emblée que les IA ne sont pas « conscientes », mais des machines basées sur deux éléments fondamentaux : un vaste ensemble de données, puis des algorithmes permettent d’effectuer des calculs probabilistes sophistiqués.

Bien que l’histoire de l’IA remonte aux années 1950, ce n’est qu’à partir des années 2000 que ces « machines algorithmiques » ont commencé à jouer un rôle important dans nos vies. Cela s’explique par la conjugaison de deux dynamiques. Sur le plan technologique, l’informatique nuagique (cloud), l’apprentissage automatique (machine learning), les médias sociaux et les téléphones intelligents ont rendu possible la production, le stockage et le traitement de données massives (big data), lesquelles nourrissent et accélèrent le développement de machines algorithmiques toujours plus performantes. Au niveau économique, la crise financière mondiale de 2007-2008 a bouleversé l’hégémonie du modèle néolibéral, mondialisé et financiarisé représenté par Wall Street, et a poussé le capitalisme à se réinventer sur de nouvelles bases. La Silicon Valley amena une nouvelle promesse de prospérité via les « plateformes » et l’« économie collaborative » qui ont permis aux géants du numérique de se hisser en haut du palmarès des plus grandes entreprises : Google, Amazon, Facebook, Apple, Microsoft, Uber, Airbnb, Tesla, etc.

Cette « grande transformation », survenue autour de 2008, favorisa le passage vers un nouveau stade du capitalisme, nommé « capitalisme de surveillance », « capitalisme de plateforme » ou encore « capitalisme algorithmique ». Il s’agit d’un nouveau régime d’accumulation basé sur l’extraction massive et la valorisation de données personnelles, la prédiction et l’influence des comportements (via la publicité ciblée et d’autres systèmes prédictifs), ainsi que de nouvelles régulations des pratiques sociales par les recommandations, nudges 1 et processus décisionnels automatisés (gouvernementalité algorithmique).

Il n’est pas possible de résumer ici tous les impacts de cette nouvelle configuration du capitalisme sur le travail, la vie politique, la culture, les institutions et l’environnement2 . Mais disons d’emblée que le développement actuel de l’IA contribue à amplifier les dynamiques de l’économie capitaliste : accumulation du capital via la marchandisation des données et la production de machines algorithmiques, exploitation du travail humain (en usine, via l’économie collaborative ou le travail du clic), course effrénée à l’IA qui exacerbe la concurrence entre entreprises, villes et pays, automatisation des inégalités sociales, explosion de la consommation d’énergie pour stocker les données, entraîner les algorithmes et alimenter les centres de données. Bref, malgré les nombreux avantages et promesses de l’IA en termes de productivité et de fonctionnalités, le déploiement de ces technologies algorithmiques risque malheureusement de nourrir les pires travers de ce système.

 

La philanthropie à l’ère des algorithmes 

Dans ce contexte, quel(s) rôle(s) la philanthropie sera-t-elle appelée à jouer? Comment ses pratiques sont-elles transformées par l’arrivée des données massives, des algorithmes et de robots conversationnels comme ChatGPT? Comment les fondations feront-elles usage de l’IA pour atteindre leurs objectifs?

Au niveau des données, les fondations en ont longtemps fait usage pour mieux comprendre les problèmes sociaux qu’elles tentent de résoudre afin d’orienter leurs interventions et mieux cibler les projets méritant d’être financés. L’arrivée de la « philanthropie des données » (data philanthropy), au début des années 2010, poussa les entreprises du secteur privé à partager leurs données pour le bien public en facilitant le travail des fondations, des ONG et autres organismes humanitaires3 .

Parallèlement, l’arrivée du courant de l’« altruisme efficace », représenté par des organisations comme Giving What We Can (2009) et 80 000 Hours (2011), très populaires auprès des entrepreneurs, investisseurs et philanthropes de la Silicon Valley, chercha à identifier les enjeux sociaux prioritaires et les fondations les plus « efficaces ». Elles l’ont fait en guidant les pratiques du milieu philanthropique à partir d’une approche axée sur les données et l’optimisation. Notons aussi que William MacAskill et Toby Ord, théoriciens de l’altruisme efficace et promoteurs du « long-termisme »4  insistent beaucoup sur l’étude des risques existentiels et les enjeux de sécurité liés à la « super intelligence » artificielle, en mobilisant des millions de dollars dans ce secteur.

Du côté des outils algorithmiques, ceux-ci peuvent être utilisés dans une foule de tâches, activités et processus par des fondations. L’IA est souvent présentée comme une technologie à usage général à l’instar de l’électricité (« AI is the new electricity »). Celle-ci servant à prédire, calculer, classer, recommander, générer du texte et d’autres résultats désirés. Les applications potentielles sont nombreuses : créer des robots conversationnels pour les demandes de subventions et rapports, évaluation des risques des investissements à impact social, rationalisation des pratiques de gestion et de diligence, traitement des données liées aux organisations sociales, etc.5

Du côté des organismes communautaires et des entrepreneurs sociaux, les machines algorithmiques peuvent être utilisées pour rédiger des demandes de subvention, assurer la collecte automatisée de données pour la reddition de comptes, faciliter les mesures d’impact social, etc. L’IA sert avant tout à automatiser des processus, et donc à économiser du temps, bien que des humains doivent toujours rester dans la boucle afin de corriger les erreurs, approximations et « hallucinations » générées par les algorithmes, d’où l’expression « human-in-the-loop ». L’automatisation de tâches lourdes et répétitives permettrait ainsi aux professionnel·le·s de se concentrer sur les activités à forte valeur ajoutée, comme la collaboration et l’entretien de relations humaines, l’IA créant ainsi un « dividende » de temps6 .

Bien sûr, ce virage vers l’IA ne se fera pas spontanément. L’appropriation de ces technologies se fait selon un rythme inégal en fonction des ressources disponibles en termes d’expertise, de temps et d’argent. Une étude publiée en 2019 montre qu’au sein des organismes communautaires québécois, « moins de la moitié emploie l’automatisation et les bases de données massives, des outils pourtant essentiels pour tirer parti des données informatiques que la vaste majorité récolte. Seulement 6% des organismes font usage d’algorithmes »7 . C’est pourquoi certaines fondations misent sur la création de programmes de formation et d’accompagnement visant à faciliter l’intégration des outils algorithmiques dans le milieu communautaire. En mars 2022, Centraide a lancé le programme DATAide pour surmonter ledit retard technologique. Comme l’explique le PDG Claude Pinard : « le programme est composé de webinaires, de formations pour développer les compétences des intervenants et d’activités de soutien au leadership. Notre objectif est de faciliter la concrétisation de projets de transformation numérique au cours des trois prochaines années »8 .

Angles morts du virage algorithmique 

Ce texte ne propose qu’un bref survol des impacts possibles des machines algorithmiques sur le monde philanthropique et communautaire. Bien qu’une approche techno-optimiste soit souvent mise de l’avant concernant les promesses de l’IA pour le bien commun, il demeure néanmoins des angles morts à ne pas négliger.

Premièrement, il y a le danger du « solutionnisme technologique », c’est-à-dire la vision qui consiste à réduire la résolution de problèmes sociaux complexes à des solutions techniques simples comme des applications, plateformes et algorithmes9 .

Deuxièmement, il y a le risque que la sélection des enjeux sociaux prioritaires et des organismes considérés comme ayant le plus haut « potentiel d’impact » soient sélectionnés par des critères étroitement quantitatifs et utilitaristes, comme le suggère l’altruisme efficace.

Troisièmement, les précieuses économies de temps rendues possibles par des machines comme ChatGPT pourraient être annulées par des exigences toujours plus grandes en termes de reddition de compte et de performance. Ce paradoxe vient du fait que si les organismes communautaires viennent à utiliser des outils algorithmiques pour augmenter leur productivité, collecter plus de données et optimiser leurs activités, ils resteront en compétition les uns avec les autres pour la recherche de subventions et de ressources. Loin d’atténuer la concurrence au profit de la collaboration, l’IA, en contexte capitaliste, ne fera qu’exacerber la logique de compétition, de l’accumulation et de réduction des coûts de production.

Quatrièmement, il ne faut pas oublier que les systèmes d’IA, loin d’être neutres et objectifs, comportent plusieurs « biais algorithmiques », et ce, en raison de leurs données d’entraînement et des modèles de programmation utilisés. Ces derniers intègrent des biais discriminatoires en termes de genre, couleur de peau, âge, handicap, classe, etc. Ces biais se combinent à celui de l’« explicabilité », car les processus menant à certaines décisions restent opaques en raison des modalités du fonctionnement des techniques d’apprentissage automatique qui fonctionnent comme des « boîtes noires ». En résulte une opacité opérationnelle qui échappe aussi aux experts. Cela signifie que si un nombre croissant de personnes, dans les fondations et les organismes communautaires, délèguent de plus en plus de décisions aux machines, alors le risque de reproduire des inégalités sera très grand.

Cinquièmement, toujours pour les fondations et les organisations communautaires, il faut se demander si les problèmes générés ou renforcés par le capitalisme algorithmique pourront être surmontés par un usage accru de l’IA. Ne risque-t-on pas d’exacerber l’approche de la « gouvernementalité algorithmique » dans la gestion des problèmes sociaux, de contribuer à la dynamique d’accumulation capitaliste par l’extraction maximale de données et l’usage accru de machines développées par le secteur privé; renforçant ainsi les inégalités socio-économiques et l’emprise des GAFAM sur la société? Comme le disait la poétesse et féministe noire Audre Lorde, il y a lieu de se demander si « les outils du maître ne détruiront jamais la maison du maître ».

 

 

Biographie:

Jonathan Durand Folco est professeur agrégé à l’École d’innovation sociale Élisabeth-Bruyère à l’Université Saint-Paul, Ottawa. Ses travaux de recherche portent sur la démocratie participative, la politique municipale, les communs et le capitalisme algorithmique. Il est l’auteur des livres À nous la ville! Traité de municipalisme (Écosociété, 2017), et Réinventer la démocratie : de la participation à l’intelligence collective (PUO, 2023), co-auteur de Manuel pour changer le monde (Lux, 2020) et du livre à paraître Le capital algorithmique : accumulation, pouvoir et résistance à l’ère de l’intelligence artificielle (Écosociété, 2023).

 

 


This article is part of the July 2023 special edition:  Philanthropy and AI. You can find more here.

philanthropy and artificial intelligence