Opportunités et défis de l’IA pour l’économie sociale

Opportunités et défis de l’IA pour l’économie sociale

Le rôle des communs de données dans l’IA pour l’économie sociale

Du 12 au 15 mai 2025, Eline Coustenoble, chargée de capitalisation au Social Good Accelerator, a participé au EU-US Young Leader Seminar 2025. Le séminaire a abordé l’IA pour l’économie sociale, ses opportunités et ses défis pour les organisations de l’ESS. Dans cet article, elle détaille les conversations et leurs implications pour l’association, l’ESS, et le monde de la technologie.

L’événement était organisé par la European Union Delegation to the United States, le German Marshall Fund of the United States et la Commission for Educational Exchange between the U.S., Belgium and Luxembourg.
(suite…)

IA : 3 cas d’usages de l’intelligence artificielle pour l’intérêt général

IA : 3 cas d’usages de l’intelligence artificielle pour l’intérêt général

Le SOGA a lancé un groupe de réflexion pour comprendre les rapports entre l’IA et l’ESS, échanger sur les usages, l’éthique, la responsabilité et les alternatives de l’IA. Dans ce cadre, s’est tenu une réunion sous forme de webinaire le jeudi 18 avril 2024.

La discussion s’est ouverte par un sujet d’actualité : des entretiens d’embauche menés par des chatbots. Il a partagé l’histoire d’une jeune femme chargée de communication dont le processus de sélection du CV et l’entretien à distance ont été réalisés entièrement par des chatbots, pour finalement recevoir un refus de sa candidature également envoyé par un chatbot. Cette anecdote soulève une question essentielle : est-ce éthique d’utiliser des chatbots pour des processus de recrutement humains ? 

Cette réflexion est étroitement liée à la question de l’impact de l’IA sur les métiers, soulignant les défis et les dilemmes éthiques auxquels nous sommes confrontés dans un monde où la technologie évolue rapidement. Une belle introduction avant de laisser la parole aux 3 experts venus partager leur expertise dans le domaine de l’IA : Joël Gombin, Chief Data Officer chez Avneer; Lea Rogliano, chercheuse en éthique de l’IA chez FARI; et Guilhem Menard, co-fondateur de Share it.

 

Cas d’usage 1 : Outiller les aidants numériques sur les enjeux de l’IA et de la data

Léa Rogliano a partagé des retours précieux sur la manière d’outiller les aidants numériques pour aborder les enjeux de l’IA et des données. Elle a souligné le besoin urgent d’outiller les aidants numériques pour mieux comprendre et communiquer sur les implications éthiques et pratiques de l’IA et des données dans leurs activités. La chercheuse nous a présenté un projet pilote en cours chez FARI, axé sur la diversité et l’inclusivité, visant à comprendre les besoins des Espaces Publics Numériques (EPN) à Bruxelles. Ces EPN sont des lieux où le grand public peut accéder à internet et à d’autres technologies numériques, et recevoir de l’aide quant aux usages numériques. 

L’objectif principal était de saisir les besoins des aidants numériques, qui sont chargés d’aider les utilisateurs dans leur utilisation des technologies. Ils ont observé une forte demande pour des ressources et des formations spécifiques, soulignant que les aidants numériques préféraient souvent être formés sur place plutôt que de se déplacer vers des centres plus institutionnels. Ils ont souligné l’importance de créer des outils pédagogiques pour initier les pédagogues eux-mêmes aux enjeux de l’IA et de la data, ainsi que la nécessité de proposer des démonstrations concrètes de l’utilisation de l’IA pour optimiser les processus, telles que la création de chatbots ou de CV automatisés, pour susciter l’intérêt et la motivation du public des EPN. Les outils présentés visent à sensibiliser ces acteurs aux enjeux éthiques de l’IA et de la data, garantissant ainsi une utilisation responsable de ces technologies dans le secteur de l’ESS.

 

Cas d’usage 2 : les embeddings au service de l’orientation professionnelle

Joël Gombin a pris la parole pour partager les défis et solutions que présente l’utilisation de l’IA dans la création d’une application. Il a récemment développé l’application Avneer, qui aide les jeunes à trouver le métier qui leur correspond. Il s’adresse à ce jeune public en proposant un processus gamifié avec un avatar interactif. Lors du développement de l’application, plusieurs défis se sont posés. Premièrement, il a fallu créer un moteur de recommandation de métiers basé sur le matching entre les compétences des utilisateurs et les exigences des emplois, en utilisant des données ouvertes sur l’éducation, l’orientation et la formation. 

Deuxièmement, les variations et les erreurs potentielles lorsque l’utilisateur entre un terme dans la barre de recherche de l’application peuvent poser problème. Pour surmonter ce défi, ils ont opté pour l’utilisation de l’apprentissage automatique, en particulier les embeddings. Les embeddings sont une technique utilisée en intelligence artificielle pour représenter des mots ou des phrases sous forme de nombres sur un graphique en plusieurs dimensions. Cela permet à l’ordinateur de comprendre la signification et les relations entre les mots. Par exemple, dans un espace de dimensions, chaque mot est représenté par un ensemble de nombres qui capturent ses caractéristiques et ses associations avec d’autres mots. Cela permet à l’ordinateur de traiter le langage naturel de manière plus efficace et de mieux comprendre et répondre aux demandes hétérogènes des utilisateurs, facilitant ainsi la recherche de métiers pertinents. En utilisant des algorithmes sophistiqués, les embeddings permettent une meilleure correspondance entre les compétences des individus et les exigences des emplois, offrant ainsi une orientation professionnelle plus efficace.

 

Cas d’usage 3 – Intégration de l’IA : stratégies pour les acteurs de l’intérêt général

Guilhem Menard a abordé les défis spécifiques rencontrés par les acteurs de l’intérêt général dans l’adoption de l’IA. Co-fondateur de Share it, fort de ses 6 ans d’accompagnement de projets dans l’ESS, il  a mis en lumière le lancement d’un projet spécifique sur l’IA. La structure a constaté un faible nombre d’utilisations de l’IA au sein des associations, soulignant un décalage entre le secteur marchand et le secteur associatif en matière de numérisation. Ainsi, il a souligné l’importance d’outiller les structures de l’ESS pour tirer parti des avantages de l’IA. 

Il a identifié trois types de cas d’usage pour l’IA : l’utilisation générique, pour utiliser l’IA au quotidien afin de gagner en efficacité (gestion de projet, aide à la rédaction, traduction…); l’utilisation métier, plus spécifique du secteur (fundraising, marketing/com, accompagnement des bénéficiaires); l’utilisation “organisation”, permettant de repenser l’activité d’une organisation en s’appuyant sur l’IA.

Guilhem a ensuite présenté un programme ambitieux visant à acculturer et accompagner les acteurs de l’ESS à l’utilisation des IA génératives. Ce programme vise à accompagner 2000 structures d’ici 2026, dont 400 dès 2024 à Paris, à travers trois phases : la diffusion d’une veille technologique et de recommandations sur l’IA adaptées au secteur de l’ESS, l’organisation de webinaires d’acculturation et enfin, la formation des acteurs de l’ESS à l’usage de l’IA sur des cas métiers simples avec des temps de mise en pratique collectifs et individuels. 

 

Développement de l’IA dans l’économie sociale : une technologie au service de l’impact social

Développement de l’IA dans l’économie sociale : une technologie au service de l’impact social

Développement de l’intelligence artificielle dans l’économie sociale : une technologie au service de l’impact social

L’intelligence artificielle (IA) connaît une croissance fulgurante. Depuis l’arrivée de ChatGPT, le débat public s’est intensifié. Dans une lettre ouverte datée du 28 mars 2023, plus d’une centaine d’experts ont appelé à une pause dans le développement de certaines IA afin de mieux encadrer leurs implications éthiques.

Dans un précédent article, nous montrions que, dans des secteurs technologiques sous tension comme l’IA, le simple statut non lucratif ne suffit plus à garantir l’alignement avec les valeurs défendues par les organisations. C’est pourquoi les acteurs de l’économie sociale se montrent souvent prudents face à ces technologies.

Pourtant, le développement de l’IA dans l’économie sociale pourrait permettre de mettre la technologie au service de l’impact social.

Comprendre le fonctionnement de l’intelligence artificielle

Avant d’explorer ses usages, rappelons ce qu’est une IA.

Une intelligence artificielle est un ensemble de techniques permettant à une machine de simuler certaines capacités humaines : traitement du langage, reconnaissance d’images, prédiction, classification, etc.

Dans le cas de ChatGPT, le système repose sur un modèle de type GPT (Generative Pre-Trained Transformer), un réseau neuronal entraîné sur de vastes corpus de données. Il génère des réponses en analysant des probabilités statistiques et des associations linguistiques — non sur une compréhension réelle du contenu.

Ainsi, les outils actuellement disponibles relèvent davantage du machine learning avancé que d’une intelligence dotée d’un raisonnement autonome.

IA et campagnes de dons : améliorer le ciblage

Certaines organisations ont déjà intégré l’intelligence artificielle dans leurs stratégies de levée de fonds.

Le rouge correspond au démarchage classique non ciblé, le vert au ciblage classique et le bleu au ciblage effectué à l’aide d’algorithmes. L’intelligence artificielle améliore l’efficacité des campagnes de dons en identifiant les profils des donateurs et en orientant les mailings de la meilleure façon possible. Il s’agit donc d’un gain d’efficacité, de rentabilité, mais aussi d’un argument écologique en réduisant le nombre d’e-mails et donc l’impact carbone d’une campagne.

Des outils d’analyse prédictive permettent :

  • d’identifier les profils les plus susceptibles de donner,

  • d’optimiser les campagnes d’emailing,

  • de réduire les sollicitations inutiles,

  • d’améliorer le retour sur investissement (ROI).

L’algorithme permet d’affiner le ciblage par rapport aux méthodes traditionnelles, ce qui peut :

  • accroître l’efficacité financière,

  • réduire l’empreinte carbone des campagnes (moins d’emails, moins de papier),

  • améliorer la pertinence des messages.

Cependant, plusieurs limites subsistent :

  • manque de transparence des algorithmes,

  • absence de données open source,

  • difficulté d’évaluation indépendante de la performance réelle.

L’efficacité de ces dispositifs dépend fortement de la qualité des données disponibles.

Mesurer l’impact social grâce à l’analyse automatisée

La mesure d’impact est un enjeu central pour les organisations de l’économie sociale.

Or, quantifier la valeur sociale créée reste complexe et coûteux. L’intelligence artificielle peut contribuer à :

  • analyser à grande échelle les retours des bénéficiaires,

  • effectuer des analyses de sentiment sur les réseaux sociaux,

  • détecter des tendances dans les perceptions publiques,

  • structurer des données qualitatives en indicateurs exploitables.

Le développement d’outils d’IA spécifiquement conçus pour analyser l’impact social pourrait aider les organisations à :

Freins à l’adoption de l’IA dans l’économie sociale

Un expert en data science travaillant pour une grande mutuelle souligne plusieurs obstacles :

1. Une perception négative du secteur

L’IA est parfois perçue comme un domaine réservé aux « geeks », éloigné des préoccupations sociales.

2. Des difficultés de collecte de données

La structuration et la qualité des données sont souvent insuffisantes pour déployer des modèles prédictifs robustes.

3. Une transformation organisationnelle complexe

Dans des secteurs comme la mutualité, la gestion des risques repose historiquement sur l’expérience métier. Introduire des outils automatisés implique un changement culturel profond.

    Des bénéfices concrets déjà observables

    Malgré ces freins, des applications existent déjà :

    • tri automatique des emails et documents scannés,

    • optimisation de la relation bénéficiaire,

    • automatisation des demandes courantes,

    • détection des fraudes.

    Les résultats observés incluent :

    • un gain de temps significatif,

    • une amélioration de la qualité de service,

    • une meilleure allocation des ressources humaines.

    Conclusion : vers une IA éthique et responsable dans l’économie sociale

    L’intelligence artificielle soulève des questions éthiques majeures :

    • gouvernance des données,

    • biais algorithmiques,

    • respect de la vie privée,

    • transparence des modèles.

    Mais elle représente également une opportunité stratégique pour l’économie sociale.

    Selon Dr. Lobna Karoui, spécialiste de l’éthique de l’IA, l’intelligence artificielle peut devenir un levier puissant pour :

    • améliorer l’efficacité organisationnelle,

    • renforcer la connaissance des bénéficiaires,

    • optimiser l’impact social.

    À condition qu’elle reste un outil au service de l’humain, et non un substitut.

    Le défi pour l’économie sociale est clair :
    développer une IA alignée sur ses valeurs démocratiques, solidaires et responsables.

      FAQ — Intelligence artificielle et économie sociale

      L’intelligence artificielle est-elle compatible avec les valeurs de l’économie sociale ?

      Oui, si elle est développée de manière éthique, transparente et au service de l’impact social.

      Quels sont les principaux usages de l’IA dans l’économie sociale ?

      Ciblage des campagnes de dons, mesure d’impact, automatisation administrative, détection de fraudes, analyse de données.

      Quels sont les risques associés ?

      Biais algorithmiques, opacité des modèles, dépendance technologique, problèmes de gouvernance des données.

      Pourquoi l’adoption est-elle lente dans l’économie sociale ?

      Manque de compétences internes, réticences culturelles, ressources financières limitées.

      L’IA peut-elle remplacer les professionnels du secteur social ?

      Non. Elle peut assister, optimiser et analyser, mais elle ne remplace pas l’expertise humaine ni la relation sociale.

      Éthique et performance : le cas du développement de ChatGPT

      Éthique et performance : le cas du développement de ChatGPT

      Éthique et performance : le cas du développement de ChatGPT

      ChatGPT n’est pas seulement une révolution technologique : c’est aussi un cas d’école en matière de responsabilité sociale des entreprises.
      Conçu à l’origine comme un contre-modèle aux GAFAM au sein d’une organisation à but non lucratif, OpenAI, la société à l’origine de ChatGPT, a progressivement basculé vers un modèle capitaliste.

      L’affaire révélée par le magazine Time sur les conditions de travail des sous-traitants kenyans — employés par Samasource, une ancienne ONG devenue entreprise à but lucratif — a mis en lumière les paradoxes du modèle.
      Ces révélations posent une question de fond : les statuts “non lucratifs” servent-ils aujourd’hui de tremplin à des entreprises technologiques motivées par le profit plutôt que par l’intérêt général ?
      Retour sur un cas emblématique et les interrogations qu’il soulève.

      Bien que le secteur à but non lucratif se structure traditionnellement autour de valeurs de gouvernance démocratique, de transparence et d’éthique, certaines situations viennent interroger cette éthique de solidarité.
      Comme toute entreprise, les organisations à but non lucratif sont confrontées à des pressions économiques : baisse de revenus, difficultés de trésorerie, plans sociaux…
      Ces contraintes les obligent parfois à faire coexister éthique et performance, au risque que la recherche d’efficacité supplante progressivement la mission d’intérêt général.

      L’évolution d’OpenAI : du modèle non lucratif au statut à but lucratif limité

      Fondée en 2015 par Elon Musk et Sam Altman, OpenAI naît comme une organisation à but non lucratif.
      Son ambition initiale : développer une intelligence artificielle au service du bien commun, en opposition aux modèles de captation de données des géants du numérique.

      Mais en 2019, un an après le départ d’Elon Musk, la structure change de statut pour devenir une “limited-profit company”, un modèle hybride américain permettant d’accueillir des capitaux privés tout en plafonnant la rémunération des investisseurs.
      Malgré cette évolution, OpenAI continue d’affirmer que sa mission est de « développer une intelligence artificielle pour le bénéfice de toute l’humanité ».

      Jusqu’à la publication de l’enquête du Time en janvier 2023, l’entreprise cultivait une image d’éthique et de transparence fidèle à ses origines.
      Mais l’enquête révèle que pour résoudre les problèmes de toxicité linguistique dans ses modèles d’IA, OpenAI a eu recours à un prestataire basé au Kenya, où des travailleurs ont été exposés à des contenus violents et haineux pour un salaire dérisoire.

      Dans sa réponse officielle, la direction d’OpenAI affirme ne pas avoir eu connaissance des conditions de travail de ce sous-traitant.
      Cependant, l’affaire a profondément écorné son image de pionnier éthique de l’intelligence artificielle.

      De fortes pressions dans un secteur ultra-compétitif

      Ce scandale révèle le paradoxe entre compétitivité et éthique dans le secteur de l’intelligence artificielle.
      Pour rester dans la course face aux GAFAM, OpenAI s’est heurtée aux limites de ses engagements moraux.

      Le prestataire mis en cause travaille d’ailleurs pour la plupart des concurrents directs d’OpenAI, en raison de tarifs extrêmement compétitifs.
      Les géants comme Google, Meta ou Microsoft ont eux aussi recours à ces sous-traitants chargés de filtrer les données violentes ou haineuses, dans le cadre de l’entraînement de leurs modèles.

      OpenAI n’a donc pas inventé cette pratique : elle l’a reproduite pour survivre dans une industrie dominée par la logique de vitesse et de performance.
      Son évolution – du statut juridique à la recherche de fonds – l’a rendue de plus en plus semblable à ses concurrents, y compris dans ses méthodes.

      La principale critique adressée à OpenAI tient à l’incohérence entre son discours et ses pratiques.
      L’entreprise s’était imposée mondialement grâce à un positionnement moral fort. Lorsque la réalité de son fonctionnement a été dévoilée, une partie du public s’est sentie trahie.

      Mais il serait injuste de généraliser ce cas à l’ensemble du secteur non lucratif ou à celui de l’IA.
      Le développement de l’intelligence artificielle reste une opportunité majeure pour la Social Tech, qui pourra s’appuyer sur ces outils pour produire des innovations éthiques, responsables et utiles au bien commun.

      Quelle est la position de ChatGPT lui-même ?

      Pour clore l’analyse, ChatGPT a été interrogé sur le dilemme éthique auquel ses créateurs ont été confrontés : productivité ou éthique ?
      Sa réponse est sans équivoque :

      « Les entreprises qui se revendiquent d’un modèle éthique ou à but non lucratif ont une responsabilité envers le public et le reste du secteur. La transparence et la redevabilité sont des conditions essentielles de la confiance. »

      Une position lucide, bien éloignée des ambitions financières actuelles d’OpenAI, qui prévoit désormais d’atteindre 1 milliard de dollars de revenus d’ici 2024 — un objectif qui s’éloigne sensiblement de son intention initiale : créer une intelligence artificielle au service de l’humanité.