Podcast : Jeanne sur l’IA et l’économie sociale

Podcast : Jeanne sur l’IA et l’économie sociale

🎙️ Accélérer la transformation numérique de l’Économie Sociale et Solidaire : Jeanne Bretécher au micro du podcast Parlez-moi d’IA

Comment faire du numérique un levier au service de l’intérêt général ? Dans un épisode engagé du podcast Parlez-moi d’IA, Jeanne Bretécher, directrice du Social Good Accelerator, explore les liens entre transformation numérique de l’Économie Sociale et Solidaire (ESS), innovation sociale et technologies éthiques.

👉 Un échange essentiel pour toutes celles et ceux qui croient à un numérique au service du bien commun.

Enjeux clés : comment accompagner la transition numérique de l’ESS ?

Dans cet entretien, Jeanne revient sur les principaux défis rencontrés par les structures de l’ESS face à la révolution numérique :

  • L’inégalité d’accès aux compétences numériques,

  • La surreprésentation des logiques de marché dans les outils numériques dominants,

  • L’absence de soutien public structurant pour des modèles numériques alternatifs.

Elle défend une vision ancrée dans les valeurs de l’ESS : coopération, justice sociale, transparence, et souveraineté numérique.

Les Communs numériques comme boussole

Jeanne souligne l’importance des communs numériques dans la transition numérique ESS :
👉 mutualiser les ressources (outils, formations, données), renforcer l’autonomie des associations, créer de la valeur partagée.

Des exemples concrets sont évoqués : plateformes collaboratives, tiers-lieux numériques, solutions open source développées avec et pour les acteurs de terrain.

Le rôle du Social Good Accelerator

Le SOGA agit sur quatre leviers complémentaires :

1. Recherche sur les Communs

Pour cartographier les pratiques, identifier les freins et proposer des outils adaptés aux besoins du secteur.

2. Accompagnement collectif

Formations, ateliers, communautés d’entraide : un soutien concret pour développer les compétences numériques des structures ESS.

3. Plaidoyer

Le SOGA interpelle les décideurs européens pour intégrer les spécificités du secteur social dans les politiques numériques

4. Animation de la communauté

En ligne ou sur le terrain, le réseau SOGA accompagne les initiatives, valorise les pratiques et renforce la social tech européenne.

Pourquoi écouter ce podcast ?

Ce podcast est une invitation à :

  • Réfléchir autrement à la place du numérique dans nos sociétés,

  • Découvrir des projets inspirants portés par et pour l’ESS,

  • Comprendre comment agir, en tant qu’acteur·rice engagé·e, pour une transformation numérique inclusive.

🎧 Écoutez l’épisode complet sur YouTube

📄 Ou lisez la transcription complète ici

Écoutez l’interview complète ici :

Résumé de l’épisode :

Dans cet épisode riche et inspirant, Jeanne fait une intervention éclairée autour de trois thématiques centrales :

  • L’enjeu de la transformation numérique dans l’Économie Sociale et Solidaire (ESS)
    Jeanne décrypte comment le numérique peut à la fois représenter un risque d’acculturation et une opportunité inédite pour les structures ESS.

  • L’importance des communs et de la mutualisation
    Elle insiste sur la nécessité de développer des ressources partagées, tant techniques qu’humaines, pour renforcer l’autonomie des acteurs et promouvoir des solutions centrées sur des valeurs sociales.

  • La place du Social Good Accelerator
    Elle présente les quatre leviers de l’association – recherche sur les Communs, projets collectifs, plaidoyer, community management – et illustre leur impact concret sur les acteurs membres.

(Bonus) Jeanne illustre ses propos par des retours d’expériences et des exemples concrets montrant comment les structures tirer profit d’un accompagnement adapté.

Ce que vous allez apprendre

1. Pourquoi le numérique est-il un levier d’émancipation pour l’ESS ?

Jeanne explique comment les valeurs coopératives, la justice sociale et la démocratie peuvent être défendues dans l’espace numérique. Elle détaille aussi les freins à lever (ressources, compétences, gouvernance).

2. Quels modèles alternatifs existent déjà ?

Elle met en lumière des initiatives de tiers‑lieux, des plateformes co-conçues avec les usagers et des réseaux solidaires numériques. Des solutions innovantes qui bousculent les modèles traditionnels.

Aller plus loin : ressources pour les associations en transition numérique

Vous êtes une association en pleine réflexion sur vos outils ou pratiques numériques ? Découvrez notre sélection de projets, guides et formations.

📌 À lire aussi : IA : 3 cas d’usage de l’intelligence artificielle pour l’intérêt général

✨ En conclusion

Ce podcast est une ressource précieuse pour toute personne qui souhaite comprendre les enjeux de la transformation numérique de l’Économie Sociale et Solidaire, s’inspirer de solutions numériques éthiques et rejoindre une dynamique collective au service du bien commun.

Rejoignez-nous pour inventer un numérique qui respecte les valeurs de l’ESS !

Opportunités et défis de l’IA pour l’économie sociale

Opportunités et défis de l’IA pour l’économie sociale

Le rôle des communs de données dans l’IA pour l’économie sociale

Du 12 au 15 mai 2025, Eline Coustenoble, chargée de capitalisation au Social Good Accelerator, a participé au EU-US Young Leader Seminar 2025. Le séminaire a abordé l’IA pour l’économie sociale, ses opportunités et ses défis pour les organisations de l’ESS. Dans cet article, elle détaille les conversations et leurs implications pour l’association, l’ESS, et le monde de la technologie.

L’événement était organisé par la European Union Delegation to the United States, le German Marshall Fund of the United States et la Commission for Educational Exchange between the U.S., Belgium and Luxembourg.
(more…)

IA : 3 cas d’usages de l’intelligence artificielle pour l’intérêt général

IA : 3 cas d’usages de l’intelligence artificielle pour l’intérêt général

Le SOGA a lancé un groupe de réflexion pour comprendre les rapports entre l’IA et l’ESS, échanger sur les usages, l’éthique, la responsabilité et les alternatives de l’IA. Dans ce cadre, s’est tenu une réunion sous forme de webinaire le jeudi 18 avril 2024.

La discussion s’est ouverte par un sujet d’actualité : des entretiens d’embauche menés par des chatbots. Il a partagé l’histoire d’une jeune femme chargée de communication dont le processus de sélection du CV et l’entretien à distance ont été réalisés entièrement par des chatbots, pour finalement recevoir un refus de sa candidature également envoyé par un chatbot. Cette anecdote soulève une question essentielle : est-ce éthique d’utiliser des chatbots pour des processus de recrutement humains ? 

Cette réflexion est étroitement liée à la question de l’impact de l’IA sur les métiers, soulignant les défis et les dilemmes éthiques auxquels nous sommes confrontés dans un monde où la technologie évolue rapidement. Une belle introduction avant de laisser la parole aux 3 experts venus partager leur expertise dans le domaine de l’IA : Joël Gombin, Chief Data Officer chez Avneer; Lea Rogliano, chercheuse en éthique de l’IA chez FARI; et Guilhem Menard, co-fondateur de Share it.

 

Cas d’usage 1 : Outiller les aidants numériques sur les enjeux de l’IA et de la data

Léa Rogliano a partagé des retours précieux sur la manière d’outiller les aidants numériques pour aborder les enjeux de l’IA et des données. Elle a souligné le besoin urgent d’outiller les aidants numériques pour mieux comprendre et communiquer sur les implications éthiques et pratiques de l’IA et des données dans leurs activités. La chercheuse nous a présenté un projet pilote en cours chez FARI, axé sur la diversité et l’inclusivité, visant à comprendre les besoins des Espaces Publics Numériques (EPN) à Bruxelles. Ces EPN sont des lieux où le grand public peut accéder à internet et à d’autres technologies numériques, et recevoir de l’aide quant aux usages numériques. 

L’objectif principal était de saisir les besoins des aidants numériques, qui sont chargés d’aider les utilisateurs dans leur utilisation des technologies. Ils ont observé une forte demande pour des ressources et des formations spécifiques, soulignant que les aidants numériques préféraient souvent être formés sur place plutôt que de se déplacer vers des centres plus institutionnels. Ils ont souligné l’importance de créer des outils pédagogiques pour initier les pédagogues eux-mêmes aux enjeux de l’IA et de la data, ainsi que la nécessité de proposer des démonstrations concrètes de l’utilisation de l’IA pour optimiser les processus, telles que la création de chatbots ou de CV automatisés, pour susciter l’intérêt et la motivation du public des EPN. Les outils présentés visent à sensibiliser ces acteurs aux enjeux éthiques de l’IA et de la data, garantissant ainsi une utilisation responsable de ces technologies dans le secteur de l’ESS.

 

Cas d’usage 2 : les embeddings au service de l’orientation professionnelle

Joël Gombin a pris la parole pour partager les défis et solutions que présente l’utilisation de l’IA dans la création d’une application. Il a récemment développé l’application Avneer, qui aide les jeunes à trouver le métier qui leur correspond. Il s’adresse à ce jeune public en proposant un processus gamifié avec un avatar interactif. Lors du développement de l’application, plusieurs défis se sont posés. Premièrement, il a fallu créer un moteur de recommandation de métiers basé sur le matching entre les compétences des utilisateurs et les exigences des emplois, en utilisant des données ouvertes sur l’éducation, l’orientation et la formation. 

Deuxièmement, les variations et les erreurs potentielles lorsque l’utilisateur entre un terme dans la barre de recherche de l’application peuvent poser problème. Pour surmonter ce défi, ils ont opté pour l’utilisation de l’apprentissage automatique, en particulier les embeddings. Les embeddings sont une technique utilisée en intelligence artificielle pour représenter des mots ou des phrases sous forme de nombres sur un graphique en plusieurs dimensions. Cela permet à l’ordinateur de comprendre la signification et les relations entre les mots. Par exemple, dans un espace de dimensions, chaque mot est représenté par un ensemble de nombres qui capturent ses caractéristiques et ses associations avec d’autres mots. Cela permet à l’ordinateur de traiter le langage naturel de manière plus efficace et de mieux comprendre et répondre aux demandes hétérogènes des utilisateurs, facilitant ainsi la recherche de métiers pertinents. En utilisant des algorithmes sophistiqués, les embeddings permettent une meilleure correspondance entre les compétences des individus et les exigences des emplois, offrant ainsi une orientation professionnelle plus efficace.

 

Cas d’usage 3 – Intégration de l’IA : stratégies pour les acteurs de l’intérêt général

Guilhem Menard a abordé les défis spécifiques rencontrés par les acteurs de l’intérêt général dans l’adoption de l’IA. Co-fondateur de Share it, fort de ses 6 ans d’accompagnement de projets dans l’ESS, il  a mis en lumière le lancement d’un projet spécifique sur l’IA. La structure a constaté un faible nombre d’utilisations de l’IA au sein des associations, soulignant un décalage entre le secteur marchand et le secteur associatif en matière de numérisation. Ainsi, il a souligné l’importance d’outiller les structures de l’ESS pour tirer parti des avantages de l’IA. 

Il a identifié trois types de cas d’usage pour l’IA : l’utilisation générique, pour utiliser l’IA au quotidien afin de gagner en efficacité (gestion de projet, aide à la rédaction, traduction…); l’utilisation métier, plus spécifique du secteur (fundraising, marketing/com, accompagnement des bénéficiaires); l’utilisation “organisation”, permettant de repenser l’activité d’une organisation en s’appuyant sur l’IA.

Guilhem a ensuite présenté un programme ambitieux visant à acculturer et accompagner les acteurs de l’ESS à l’utilisation des IA génératives. Ce programme vise à accompagner 2000 structures d’ici 2026, dont 400 dès 2024 à Paris, à travers trois phases : la diffusion d’une veille technologique et de recommandations sur l’IA adaptées au secteur de l’ESS, l’organisation de webinaires d’acculturation et enfin, la formation des acteurs de l’ESS à l’usage de l’IA sur des cas métiers simples avec des temps de mise en pratique collectifs et individuels. 

 

AI development in the social economy: technology at the service of social impact?

AI development in the social economy: technology at the service of social impact?

AI development in the social economy: technology at the service of social impact

Artificial intelligence (AI) is booming. With the arrival of ChatGPT, a hundred experts ask in an open letter dated March 28, 2023, to pause the development of artificial intelligence in order to take time to consider its ethical aspects. Our previous article has shown that in technological sectors in tension such as artificial intelligence, the non profit nature of organizations is no longer sufficient to ensure the values defended by the latter. It is partly for these reasons that social economy organizations are generally wary of the development of these new technologies. Yet as we shall see, the development of AI in the social economy could put technology at the service of social impact.

Before looking at their uses, it is relevant to recall what AIs are and how they work. Strictly speaking, an AI is a set of techniques that allow machines to simulate certain characteristics of human intelligence. In the case of Chat GPT, the software bases its operation on a neural system called GPT Generative Pre-Trained Transformer. This is a machine learning model that analyzes and decodes the input text to provide a response to the user based on a large corpus of data. The software generates responses based on statistical patterns and word associations rather than actual understanding of the content. Although it may resemble this in some areas and with some specific training, experts are not unanimous in describing the software currently in circulation as artificial intelligence with reasoning capability.

Through this article, we propose to explore the possibilities and uses in the social economy of these software developed with learning technologies and which tend to approach an artificial intelligence.

 

Source : https://dataro.io/2021/03/09/artificial-intelligence-for-nonprofits/#use

Red is the classic non-targeted canvassing, green is the classic targeting and blue is the targeting done with algorithms. Artificial intelligence improves the efficiency of donation campaigns by identifying donor profiles and directing mailings in the best possible way. It is therefore a gain in efficiency, profitability but also an ecological argument by reducing the number of emails and therefore the carbon impact of a campaign.


Artificial intelligence would therefore allow to reach more efficiently certain contributors. However, there are some reservations about the large-scale deployment of the tool and its real effectiveness. It is difficult to be categorical about the effectiveness of these techniques, as the lack of open source data makes them difficult to use and rather unreliable.

Impact measurement enhanced by artificial intelligence sentiment analysis

The main objective of social economy organizations is to create social value, but this is difficult to quantify because of the complexity of the impacts produced by this sector. It is a complex and costly process, both economically and in terms of human resources, yet it is at the heart of the improvement and innovation of the social economy sector.

Impact analysis allows them to improve their practices and better communicate their impact to their stakeholders. This is an issue that is at the heart of the use and development of artificial intelligence. These tools already enable large-scale analysis of the feelings expressed by stakeholders. Using data collected on social networks for example, this would allow to identify trends on the impact of programs, services or fundraising efforts but also how they are perceived in the population.

The development of artificial intelligence specifically designed to analyze how a sample of the population feels about an action could be a solution to the difficulties faced by social economy actors on this topic.

AI development in the SE: the internal opinion of an expert

We had the chance to talk with a national expert in data science and artificial intelligence working for a large mutual. As a developer of artificial intelligence tools himself, he offered us an inside look at the current state of development of these technologies in the social economy. He clearly saw recent progress in a sector that he still defines as “difficult to move”. For him, the social economy enterprises have difficulty in moving forward in the adoption of data science and artificial intelligence, in particular because of the negative vision that these fields suffer from.

“For a long time the topics of artificial intelligence in the social economy have been under-considered and seen as only for ‘geeks’.”

The social economy also faces obstacles in terms of data collection. In fact, according to our expert, the main difficulties encountered by social economy actors are in the implementation of data collection processes and the delivery of results and predictions. In the mutual field, risk management is mainly based on business experience, so it is difficult to change methodologies to implement efficient and automated tools.

Despite these obstacles, artificial intelligence can bring many benefits to the social economy sector. The tools developed by the mutual insurance company for which our expert works help to optimize customer relations by better understanding the reasons for contact, sorting emails and scanned paper documents, and automating routine requests. These tools can also more easily detect fraud and thus improve the company’s efficiency and profitability.

“The results of these investments over the past decade are already palpable, with time savings and significant improvements in customer relations.”

Conclusion

In conclusion, the use of artificial intelligence in the social economy sector is a topic that raises important ethical questions, particularly in terms of data collection and use. However, artificial intelligence can offer opportunities to improve the efficiency and sustainability of fundraising campaigns, as well as to measure the impact of actions undertaken. While the literature in France on this topic is limited, companies and experts are already working on artificial intelligence solutions specifically designed for the social economy sector.

Convinced by this usefulness, Dr. Lobna Karoui, a Forbes board member and lawyer specialized in the ethics of artificial intelligence, gave an overview of the applications of artificial intelligence in the social economy sector. Whether it is to raise funds, improve the efficiency of their actions or better understand the needs of their beneficiaries, she believes that artificial intelligence is an asset for organizations. However, she warns that AI cannot and should not replace the human qualities of actors in the social economy.

The sector is evolving and there is no doubt that it will rise to the societal challenges raised by artificial intelligence. It is important to ensure that these tools are developed in an ethical and responsible manner, in order to preserve the integrity and values of social economy organizations.

About the author

Léon Launay
Community, Communication and Public Affairs Manager
leon(at)socialgoodaccelerator.eu
Éthique et performance : le cas du développement de ChatGPT

Éthique et performance : le cas du développement de ChatGPT

Éthique et performance : le cas du développement de ChatGPT

ChatGPT n’est pas seulement une révolution technologique : c’est aussi un cas d’école en matière de responsabilité sociale des entreprises.
Conçu à l’origine comme un contre-modèle aux GAFAM au sein d’une organisation à but non lucratif, OpenAI, la société à l’origine de ChatGPT, a progressivement basculé vers un modèle capitaliste.

L’affaire révélée par le magazine Time sur les conditions de travail des sous-traitants kenyans — employés par Samasource, une ancienne ONG devenue entreprise à but lucratif — a mis en lumière les paradoxes du modèle.
Ces révélations posent une question de fond : les statuts “non lucratifs” servent-ils aujourd’hui de tremplin à des entreprises technologiques motivées par le profit plutôt que par l’intérêt général ?
Retour sur un cas emblématique et les interrogations qu’il soulève.

Bien que le secteur à but non lucratif se structure traditionnellement autour de valeurs de gouvernance démocratique, de transparence et d’éthique, certaines situations viennent interroger cette éthique de solidarité.
Comme toute entreprise, les organisations à but non lucratif sont confrontées à des pressions économiques : baisse de revenus, difficultés de trésorerie, plans sociaux…
Ces contraintes les obligent parfois à faire coexister éthique et performance, au risque que la recherche d’efficacité supplante progressivement la mission d’intérêt général.

L’évolution d’OpenAI : du modèle non lucratif au statut à but lucratif limité

Fondée en 2015 par Elon Musk et Sam Altman, OpenAI naît comme une organisation à but non lucratif.
Son ambition initiale : développer une intelligence artificielle au service du bien commun, en opposition aux modèles de captation de données des géants du numérique.

Mais en 2019, un an après le départ d’Elon Musk, la structure change de statut pour devenir une “limited-profit company”, un modèle hybride américain permettant d’accueillir des capitaux privés tout en plafonnant la rémunération des investisseurs.
Malgré cette évolution, OpenAI continue d’affirmer que sa mission est de « développer une intelligence artificielle pour le bénéfice de toute l’humanité ».

Jusqu’à la publication de l’enquête du Time en janvier 2023, l’entreprise cultivait une image d’éthique et de transparence fidèle à ses origines.
Mais l’enquête révèle que pour résoudre les problèmes de toxicité linguistique dans ses modèles d’IA, OpenAI a eu recours à un prestataire basé au Kenya, où des travailleurs ont été exposés à des contenus violents et haineux pour un salaire dérisoire.

Dans sa réponse officielle, la direction d’OpenAI affirme ne pas avoir eu connaissance des conditions de travail de ce sous-traitant.
Cependant, l’affaire a profondément écorné son image de pionnier éthique de l’intelligence artificielle.

De fortes pressions dans un secteur ultra-compétitif

Ce scandale révèle le paradoxe entre compétitivité et éthique dans le secteur de l’intelligence artificielle.
Pour rester dans la course face aux GAFAM, OpenAI s’est heurtée aux limites de ses engagements moraux.

Le prestataire mis en cause travaille d’ailleurs pour la plupart des concurrents directs d’OpenAI, en raison de tarifs extrêmement compétitifs.
Les géants comme Google, Meta ou Microsoft ont eux aussi recours à ces sous-traitants chargés de filtrer les données violentes ou haineuses, dans le cadre de l’entraînement de leurs modèles.

OpenAI n’a donc pas inventé cette pratique : elle l’a reproduite pour survivre dans une industrie dominée par la logique de vitesse et de performance.
Son évolution – du statut juridique à la recherche de fonds – l’a rendue de plus en plus semblable à ses concurrents, y compris dans ses méthodes.

La principale critique adressée à OpenAI tient à l’incohérence entre son discours et ses pratiques.
L’entreprise s’était imposée mondialement grâce à un positionnement moral fort. Lorsque la réalité de son fonctionnement a été dévoilée, une partie du public s’est sentie trahie.

Mais il serait injuste de généraliser ce cas à l’ensemble du secteur non lucratif ou à celui de l’IA.
Le développement de l’intelligence artificielle reste une opportunité majeure pour la Social Tech, qui pourra s’appuyer sur ces outils pour produire des innovations éthiques, responsables et utiles au bien commun.

Quelle est la position de ChatGPT lui-même ?

Pour clore l’analyse, ChatGPT a été interrogé sur le dilemme éthique auquel ses créateurs ont été confrontés : productivité ou éthique ?
Sa réponse est sans équivoque :

« Les entreprises qui se revendiquent d’un modèle éthique ou à but non lucratif ont une responsabilité envers le public et le reste du secteur. La transparence et la redevabilité sont des conditions essentielles de la confiance. »

Une position lucide, bien éloignée des ambitions financières actuelles d’OpenAI, qui prévoit désormais d’atteindre 1 milliard de dollars de revenus d’ici 2024 — un objectif qui s’éloigne sensiblement de son intention initiale : créer une intelligence artificielle au service de l’humanité.