Podcast : Jeanne sur l’IA et l’économie sociale

Podcast : Jeanne sur l’IA et l’économie sociale

🎙️ Accélérer la transformation numérique de l’Économie Sociale et Solidaire : Jeanne Bretécher au micro du podcast Parlez-moi d’IA

Comment faire du numérique un levier au service de l’intérêt général ? Dans un épisode engagé du podcast Parlez-moi d’IA, Jeanne Bretécher, directrice du Social Good Accelerator, explore les liens entre transformation numérique de l’Économie Sociale et Solidaire (ESS), innovation sociale et technologies éthiques.

👉 Un échange essentiel pour toutes celles et ceux qui croient à un numérique au service du bien commun.

Enjeux clés : comment accompagner la transition numérique de l’ESS ?

Dans cet entretien, Jeanne revient sur les principaux défis rencontrés par les structures de l’ESS face à la révolution numérique :

  • L’inégalité d’accès aux compétences numériques,

  • La surreprésentation des logiques de marché dans les outils numériques dominants,

  • L’absence de soutien public structurant pour des modèles numériques alternatifs.

Elle défend une vision ancrée dans les valeurs de l’ESS : coopération, justice sociale, transparence, et souveraineté numérique.

Les Communs numériques comme boussole

Jeanne souligne l’importance des communs numériques dans la transition numérique ESS :
👉 mutualiser les ressources (outils, formations, données), renforcer l’autonomie des associations, créer de la valeur partagée.

Des exemples concrets sont évoqués : plateformes collaboratives, tiers-lieux numériques, solutions open source développées avec et pour les acteurs de terrain.

Le rôle du Social Good Accelerator

Le SOGA agit sur quatre leviers complémentaires :

1. Recherche sur les Communs

Pour cartographier les pratiques, identifier les freins et proposer des outils adaptés aux besoins du secteur.

2. Accompagnement collectif

Formations, ateliers, communautés d’entraide : un soutien concret pour développer les compétences numériques des structures ESS.

3. Plaidoyer

Le SOGA interpelle les décideurs européens pour intégrer les spécificités du secteur social dans les politiques numériques

4. Animation de la communauté

En ligne ou sur le terrain, le réseau SOGA accompagne les initiatives, valorise les pratiques et renforce la social tech européenne.

Pourquoi écouter ce podcast ?

Ce podcast est une invitation à :

  • Réfléchir autrement à la place du numérique dans nos sociétés,

  • Découvrir des projets inspirants portés par et pour l’ESS,

  • Comprendre comment agir, en tant qu’acteur·rice engagé·e, pour une transformation numérique inclusive.

🎧 Écoutez l’épisode complet sur YouTube

📄 Ou lisez la transcription complète ici

Écoutez l’interview complète ici :

Résumé de l’épisode :

Dans cet épisode riche et inspirant, Jeanne fait une intervention éclairée autour de trois thématiques centrales :

  • L’enjeu de la transformation numérique dans l’Économie Sociale et Solidaire (ESS)
    Jeanne décrypte comment le numérique peut à la fois représenter un risque d’acculturation et une opportunité inédite pour les structures ESS.

  • L’importance des communs et de la mutualisation
    Elle insiste sur la nécessité de développer des ressources partagées, tant techniques qu’humaines, pour renforcer l’autonomie des acteurs et promouvoir des solutions centrées sur des valeurs sociales.

  • La place du Social Good Accelerator
    Elle présente les quatre leviers de l’association – recherche sur les Communs, projets collectifs, plaidoyer, community management – et illustre leur impact concret sur les acteurs membres.

(Bonus) Jeanne illustre ses propos par des retours d’expériences et des exemples concrets montrant comment les structures tirer profit d’un accompagnement adapté.

Ce que vous allez apprendre

1. Pourquoi le numérique est-il un levier d’émancipation pour l’ESS ?

Jeanne explique comment les valeurs coopératives, la justice sociale et la démocratie peuvent être défendues dans l’espace numérique. Elle détaille aussi les freins à lever (ressources, compétences, gouvernance).

2. Quels modèles alternatifs existent déjà ?

Elle met en lumière des initiatives de tiers‑lieux, des plateformes co-conçues avec les usagers et des réseaux solidaires numériques. Des solutions innovantes qui bousculent les modèles traditionnels.

Aller plus loin : ressources pour les associations en transition numérique

Vous êtes une association en pleine réflexion sur vos outils ou pratiques numériques ? Découvrez notre sélection de projets, guides et formations.

📌 À lire aussi : IA : 3 cas d’usage de l’intelligence artificielle pour l’intérêt général

✨ En conclusion

Ce podcast est une ressource précieuse pour toute personne qui souhaite comprendre les enjeux de la transformation numérique de l’Économie Sociale et Solidaire, s’inspirer de solutions numériques éthiques et rejoindre une dynamique collective au service du bien commun.

Rejoignez-nous pour inventer un numérique qui respecte les valeurs de l’ESS !

Opportunités et défis de l’IA pour l’économie sociale

Opportunités et défis de l’IA pour l’économie sociale

Le rôle des communs de données dans l’IA pour l’économie sociale

Du 12 au 15 mai 2025, Eline Coustenoble, chargée de capitalisation au Social Good Accelerator, a participé au EU-US Young Leader Seminar 2025. Le séminaire a abordé l’IA pour l’économie sociale, ses opportunités et ses défis pour les organisations de l’ESS. Dans cet article, elle détaille les conversations et leurs implications pour l’association, l’ESS, et le monde de la technologie.

L’événement était organisé par la European Union Delegation to the United States, le German Marshall Fund of the United States et la Commission for Educational Exchange between the U.S., Belgium and Luxembourg.
(suite…)

IA : 3 cas d’usages de l’intelligence artificielle pour l’intérêt général

IA : 3 cas d’usages de l’intelligence artificielle pour l’intérêt général

Le SOGA a lancé un groupe de réflexion pour comprendre les rapports entre l’IA et l’ESS, échanger sur les usages, l’éthique, la responsabilité et les alternatives de l’IA. Dans ce cadre, s’est tenu une réunion sous forme de webinaire le jeudi 18 avril 2024.

La discussion s’est ouverte par un sujet d’actualité : des entretiens d’embauche menés par des chatbots. Il a partagé l’histoire d’une jeune femme chargée de communication dont le processus de sélection du CV et l’entretien à distance ont été réalisés entièrement par des chatbots, pour finalement recevoir un refus de sa candidature également envoyé par un chatbot. Cette anecdote soulève une question essentielle : est-ce éthique d’utiliser des chatbots pour des processus de recrutement humains ? 

Cette réflexion est étroitement liée à la question de l’impact de l’IA sur les métiers, soulignant les défis et les dilemmes éthiques auxquels nous sommes confrontés dans un monde où la technologie évolue rapidement. Une belle introduction avant de laisser la parole aux 3 experts venus partager leur expertise dans le domaine de l’IA : Joël Gombin, Chief Data Officer chez Avneer; Lea Rogliano, chercheuse en éthique de l’IA chez FARI; et Guilhem Menard, co-fondateur de Share it.

 

Cas d’usage 1 : Outiller les aidants numériques sur les enjeux de l’IA et de la data

Léa Rogliano a partagé des retours précieux sur la manière d’outiller les aidants numériques pour aborder les enjeux de l’IA et des données. Elle a souligné le besoin urgent d’outiller les aidants numériques pour mieux comprendre et communiquer sur les implications éthiques et pratiques de l’IA et des données dans leurs activités. La chercheuse nous a présenté un projet pilote en cours chez FARI, axé sur la diversité et l’inclusivité, visant à comprendre les besoins des Espaces Publics Numériques (EPN) à Bruxelles. Ces EPN sont des lieux où le grand public peut accéder à internet et à d’autres technologies numériques, et recevoir de l’aide quant aux usages numériques. 

L’objectif principal était de saisir les besoins des aidants numériques, qui sont chargés d’aider les utilisateurs dans leur utilisation des technologies. Ils ont observé une forte demande pour des ressources et des formations spécifiques, soulignant que les aidants numériques préféraient souvent être formés sur place plutôt que de se déplacer vers des centres plus institutionnels. Ils ont souligné l’importance de créer des outils pédagogiques pour initier les pédagogues eux-mêmes aux enjeux de l’IA et de la data, ainsi que la nécessité de proposer des démonstrations concrètes de l’utilisation de l’IA pour optimiser les processus, telles que la création de chatbots ou de CV automatisés, pour susciter l’intérêt et la motivation du public des EPN. Les outils présentés visent à sensibiliser ces acteurs aux enjeux éthiques de l’IA et de la data, garantissant ainsi une utilisation responsable de ces technologies dans le secteur de l’ESS.

 

Cas d’usage 2 : les embeddings au service de l’orientation professionnelle

Joël Gombin a pris la parole pour partager les défis et solutions que présente l’utilisation de l’IA dans la création d’une application. Il a récemment développé l’application Avneer, qui aide les jeunes à trouver le métier qui leur correspond. Il s’adresse à ce jeune public en proposant un processus gamifié avec un avatar interactif. Lors du développement de l’application, plusieurs défis se sont posés. Premièrement, il a fallu créer un moteur de recommandation de métiers basé sur le matching entre les compétences des utilisateurs et les exigences des emplois, en utilisant des données ouvertes sur l’éducation, l’orientation et la formation. 

Deuxièmement, les variations et les erreurs potentielles lorsque l’utilisateur entre un terme dans la barre de recherche de l’application peuvent poser problème. Pour surmonter ce défi, ils ont opté pour l’utilisation de l’apprentissage automatique, en particulier les embeddings. Les embeddings sont une technique utilisée en intelligence artificielle pour représenter des mots ou des phrases sous forme de nombres sur un graphique en plusieurs dimensions. Cela permet à l’ordinateur de comprendre la signification et les relations entre les mots. Par exemple, dans un espace de dimensions, chaque mot est représenté par un ensemble de nombres qui capturent ses caractéristiques et ses associations avec d’autres mots. Cela permet à l’ordinateur de traiter le langage naturel de manière plus efficace et de mieux comprendre et répondre aux demandes hétérogènes des utilisateurs, facilitant ainsi la recherche de métiers pertinents. En utilisant des algorithmes sophistiqués, les embeddings permettent une meilleure correspondance entre les compétences des individus et les exigences des emplois, offrant ainsi une orientation professionnelle plus efficace.

 

Cas d’usage 3 – Intégration de l’IA : stratégies pour les acteurs de l’intérêt général

Guilhem Menard a abordé les défis spécifiques rencontrés par les acteurs de l’intérêt général dans l’adoption de l’IA. Co-fondateur de Share it, fort de ses 6 ans d’accompagnement de projets dans l’ESS, il  a mis en lumière le lancement d’un projet spécifique sur l’IA. La structure a constaté un faible nombre d’utilisations de l’IA au sein des associations, soulignant un décalage entre le secteur marchand et le secteur associatif en matière de numérisation. Ainsi, il a souligné l’importance d’outiller les structures de l’ESS pour tirer parti des avantages de l’IA. 

Il a identifié trois types de cas d’usage pour l’IA : l’utilisation générique, pour utiliser l’IA au quotidien afin de gagner en efficacité (gestion de projet, aide à la rédaction, traduction…); l’utilisation métier, plus spécifique du secteur (fundraising, marketing/com, accompagnement des bénéficiaires); l’utilisation “organisation”, permettant de repenser l’activité d’une organisation en s’appuyant sur l’IA.

Guilhem a ensuite présenté un programme ambitieux visant à acculturer et accompagner les acteurs de l’ESS à l’utilisation des IA génératives. Ce programme vise à accompagner 2000 structures d’ici 2026, dont 400 dès 2024 à Paris, à travers trois phases : la diffusion d’une veille technologique et de recommandations sur l’IA adaptées au secteur de l’ESS, l’organisation de webinaires d’acculturation et enfin, la formation des acteurs de l’ESS à l’usage de l’IA sur des cas métiers simples avec des temps de mise en pratique collectifs et individuels. 

 

AI development in the social economy: technology at the service of social impact?

Le développement de l'IA dans l'économie sociale : la technologie au service de l'impact ?

Le développement de l'IA dans l'économie sociale : la technologie au service de l'impact social

L’intelligence artificielle (IA) est en plein boom. Avec l’arrivée de ChatGPT, une centaine d’experts demandent par une lettre ouverte du 28 mars 2023de faire une pause dans le développement de l’intelligence artificielle afin de prendre le temps de considérer ses aspects éthiques. Notre article précédent a montré que dans des secteurs technologiques en tension comme celui de l’intelligence artificielle la nature non profit des organisations ne suffit plus pour s’assurer des valeurs défendues par ces dernières.. C’est en partie pour ces raisons que les organisations de l’économie sociale se méfient généralement du développement de ces nouvelles technologies. Pourtant comme nous allons le voir, le développement des IA dans l’économie sociale pourrait mettre la technologie au service de l'impact social.

Avant de s’intéresser à leurs usages, il est pertinent de rappeler ce que sont les IA et la manière dont elles fonctionnent. Au sens strict du terme, une IA est un ensemble de techniques qui permettent aux machines de simuler certaines caractéristiques de l'intelligence humaine.Dans le cas de Chat GPT, le logiciel base son fonctionnement sur un système dit neuronal GPT Generative Pre-Trained Transformer. Il s’agit d’un modèle d’apprentissage automatique qui analyse et décode le texte d’entrée pour fournir une réponse à l’utilisateur en partant d’un vaste corpus de données. Le logiciel génère des réponses en se basant sur des modèles statistiques et des associations de mots plutôt que sur une compréhension réelle du contenu. Bien que pouvant y ressembler dans certains secteurs et avec certains entraînements spécifiques, les experts ne sont pas unanimes pour décrire les logiciels circulant actuellement comme des intelligences artificielles avec une capacité de raisonnement.

A travers cet article, nous proposons d'explorer les possibilités et les usages dans l'économie sociale de ces logiciels développés avec des technologies d'apprentissage et qui tendent à s'approcher d'une intelligence artificielle.

 

Source : https://dataro.io/2021/03/09/artificial-intelligence-for-nonprofits/#use

Il s’agit en rouge du démarchage classique non ciblé, en vert le ciblage classique et en bleu le ciblage réalisé grâce à des algorithmes. L’intelligence artificielle permet d’améliorer l'efficacité des campagnes d’appels aux dons en identifiant les profils de donateurs et en orientant au mieux les envois de mail. C’est donc un gain d'efficacité, de rentabilité mais également un argument écologique en réduisant le nombre de mails donc l’impact carbone d’une campagne.


L’intelligence artificielle permettrait donc de toucher plus efficacement certains contributeurs. Il faut pour autant émettre certaines réserves quant à la déployabilité de l’outil à grande échelle et à sa réelle efficacité. Il est difficile d’être catégorique sur l'efficacité de ces techniques, le manque de données open source en rend l’exploitation difficile et assez peu fiable.

La mesure d'impact améliorée par l'analyse des sentiments par l'intelligence artificielle

L'objectif principal des organisations de l'économie sociale est de créer de la valeur sociale, mais celle-ci est difficile à quantifier en raison de la complexité des impacts produits par ce secteur. Il s'agit d'un processus complexe et coûteux, tant sur le plan économique qu'en termes de ressources humaines, qui est pour autant au cœur de l'amélioration et de l'innovation du secteur de l'économie sociale.

L'analyse d'impact permet d'améliorer leurs pratiques et de mieux communiquer leur impact à leurs parties prenantes.Il s’agit d’un enjeu qui est au cœur de l’utilisation et du développement des intelligence artificielle. Ces outils permettent déjà à travers des analyses de grande échelle d'analyser les sentiments exprimés par des parties prenantes. En utilisant les données collectées sur les réseaux sociaux par exemple, cela permettrait de dégager des tendances sur l'impact des programmes, services ou efforts de collecte de fonds mais également de la manière dont ils sont perçus dans la population.

Le développement d’une intelligence artificielle spécifiquement conçue dans le but d' analyser le ressenti d’un échantillon de la population vis à vis d’une action. pourrait être une solution aux difficultés rencontrées par les acteurs de l'économie sociale sur ce sujet.

Le développement de l'IA dans l'ESS : l'avis interne d'un expert

Nous avons eu la chance d’échanger avec un expert national en data science et intelligence artificielle travaillant pour une grande mutuelle. Développant lui-même des outils d’intelligence artificielle, il nous a offert un aperçu interne de l’état actuel du développement de ces technologies dans l’économie sociale. Il a clairement constaté des progrès récents dans un secteur qu’il définit tout de même comme “difficile à faire bouger”. Pour lui, les entreprises de l'économie sociale et solidaire (économie sociale) ont du mal à avancer dans l'adoption de la data science et de l'intelligence artificielle notamment à cause de la vision négative dont souffrent ces domaines.

« Pendant longtemps les sujets de l’intelligence artificielle dans l’ESS ont été sous-considérés et perçus comme réservés aux “geeks." »

L’économie sociale connaît également des obstacles au niveau de la collecte de données. En effet selon notre expert les principales difficultés rencontrées par les acteurs de l'économie sociale se trouvent dans la mise en place de processus de collecte de données et la délivrance des résultats et prédictions. Dans le domaine mutualiste, la gestion des risques se ferait principalement à partir de l'expérience métier, il est donc difficile de changer les méthodologies pour mettre en place des outils performants et automatisés.

Malgré ces obstacles, l'intelligence artificielle peut apporter de nombreux avantages dans le secteur de l'économie sociale. Les outils développés par la mutuelle pour laquelle travaille notre expert permettent d'optimiser la relation client en comprenant mieux les motifs de contact, en triant les mails et les documents papiers numérisés, et en automatisant les demandes courantes. Ces outils peuvent également détecter plus facilement les fraudes et ainsi améliorer l'efficacité et la rentabilité de l'entreprise.

« Les résultats de ces investissements menés durant la dernière décennie sont déjà palpables, on remarque des gains de temps et des améliorations significatives de la relation client. »

Conclusion

En conclusion, l'utilisation de l'intelligence artificielle dans le secteur de l'économie sociale est un sujet qui soulève des questions éthiques importantes, notamment en termes de collecte et d'utilisation des données. Cependant, l'intelligence artificielle peut offrir des opportunités d'améliorer l'efficacité et la durabilité des campagnes de collecte de fonds, ainsi que de mesurer l'impact des actions entreprises. Si la littérature en France sur ce sujet est limitée, des entreprises et des experts travaillent déjà sur des solutions d'intelligence artificielle spécifiquement conçues pour ce secteur.

Convaincu par cette utilité, le Dr. Lobna Karoui, membre du conseil de Forbes et avocate spécialisée dans l’éthique des intelligences artificielles a a donné un aperçu des applications de l'intelligence artificielle dans le secteur de l'économie sociale.Que ce soit pour collecter des fonds, améliorer l'efficacité de leurs mesures ou mieux connaître les besoins des bénéficiaires, pour elle l’intelligence artificielle est un atout pour les organisations. Pour autant elle met en garde, les IA ne peuvent ni ne doivent remplacer les qualités humaines des acteurs de l'économie sociale.

Le secteur évolue et nul doute qu’il se montrera à la hauteur des enjeux sociétaux soulevés par les intelligences artificielles. Il reste important de veiller à ce que ces outils soient développés de manière éthique et responsable, afin de préserver l'intégrité et les valeurs des organisations de l'économie sociale.

Un article écrit par

Léon Launay
Chargé de Communauté, Communication et Affaires publiques
leon(at)socialgoodaccelerator.eu
Éthique et performance : le cas du développement de ChatGPT

Éthique et performance : le cas du développement de ChatGPT

Éthique et performance : le cas du développement de ChatGPT

ChatGPT n’est pas seulement une révolution technologique : c’est aussi un cas d’école en matière de responsabilité sociale des entreprises.
Conçu à l’origine comme un contre-modèle aux GAFAM au sein d’une organisation à but non lucratif, OpenAI, la société à l’origine de ChatGPT, a progressivement basculé vers un modèle capitaliste.

L’affaire révélée par le magazine Time sur les conditions de travail des sous-traitants kenyans — employés par Samasource, une ancienne ONG devenue entreprise à but lucratif — a mis en lumière les paradoxes du modèle.
Ces révélations posent une question de fond : les statuts “non lucratifs” servent-ils aujourd’hui de tremplin à des entreprises technologiques motivées par le profit plutôt que par l’intérêt général ?
Retour sur un cas emblématique et les interrogations qu’il soulève.

Bien que le secteur à but non lucratif se structure traditionnellement autour de valeurs de gouvernance démocratique, de transparence et d’éthique, certaines situations viennent interroger cette éthique de solidarité.
Comme toute entreprise, les organisations à but non lucratif sont confrontées à des pressions économiques : baisse de revenus, difficultés de trésorerie, plans sociaux…
Ces contraintes les obligent parfois à faire coexister éthique et performance, au risque que la recherche d’efficacité supplante progressivement la mission d’intérêt général.

L’évolution d’OpenAI : du modèle non lucratif au statut à but lucratif limité

Fondée en 2015 par Elon Musk et Sam Altman, OpenAI naît comme une organisation à but non lucratif.
Son ambition initiale : développer une intelligence artificielle au service du bien commun, en opposition aux modèles de captation de données des géants du numérique.

Mais en 2019, un an après le départ d’Elon Musk, la structure change de statut pour devenir une “limited-profit company”, un modèle hybride américain permettant d’accueillir des capitaux privés tout en plafonnant la rémunération des investisseurs.
Malgré cette évolution, OpenAI continue d’affirmer que sa mission est de « développer une intelligence artificielle pour le bénéfice de toute l’humanité ».

Jusqu’à la publication de l’enquête du Time en janvier 2023, l’entreprise cultivait une image d’éthique et de transparence fidèle à ses origines.
Mais l’enquête révèle que pour résoudre les problèmes de toxicité linguistique dans ses modèles d’IA, OpenAI a eu recours à un prestataire basé au Kenya, où des travailleurs ont été exposés à des contenus violents et haineux pour un salaire dérisoire.

Dans sa réponse officielle, la direction d’OpenAI affirme ne pas avoir eu connaissance des conditions de travail de ce sous-traitant.
Cependant, l’affaire a profondément écorné son image de pionnier éthique de l’intelligence artificielle.

De fortes pressions dans un secteur ultra-compétitif

Ce scandale révèle le paradoxe entre compétitivité et éthique dans le secteur de l’intelligence artificielle.
Pour rester dans la course face aux GAFAM, OpenAI s’est heurtée aux limites de ses engagements moraux.

Le prestataire mis en cause travaille d’ailleurs pour la plupart des concurrents directs d’OpenAI, en raison de tarifs extrêmement compétitifs.
Les géants comme Google, Meta ou Microsoft ont eux aussi recours à ces sous-traitants chargés de filtrer les données violentes ou haineuses, dans le cadre de l’entraînement de leurs modèles.

OpenAI n’a donc pas inventé cette pratique : elle l’a reproduite pour survivre dans une industrie dominée par la logique de vitesse et de performance.
Son évolution – du statut juridique à la recherche de fonds – l’a rendue de plus en plus semblable à ses concurrents, y compris dans ses méthodes.

La principale critique adressée à OpenAI tient à l’incohérence entre son discours et ses pratiques.
L’entreprise s’était imposée mondialement grâce à un positionnement moral fort. Lorsque la réalité de son fonctionnement a été dévoilée, une partie du public s’est sentie trahie.

Mais il serait injuste de généraliser ce cas à l’ensemble du secteur non lucratif ou à celui de l’IA.
Le développement de l’intelligence artificielle reste une opportunité majeure pour la Social Tech, qui pourra s’appuyer sur ces outils pour produire des innovations éthiques, responsables et utiles au bien commun.

Quelle est la position de ChatGPT lui-même ?

Pour clore l’analyse, ChatGPT a été interrogé sur le dilemme éthique auquel ses créateurs ont été confrontés : productivité ou éthique ?
Sa réponse est sans équivoque :

« Les entreprises qui se revendiquent d’un modèle éthique ou à but non lucratif ont une responsabilité envers le public et le reste du secteur. La transparence et la redevabilité sont des conditions essentielles de la confiance. »

Une position lucide, bien éloignée des ambitions financières actuelles d’OpenAI, qui prévoit désormais d’atteindre 1 milliard de dollars de revenus d’ici 2024 — un objectif qui s’éloigne sensiblement de son intention initiale : créer une intelligence artificielle au service de l’humanité.