Éthique et performance : le cas du développement de ChatGPT
ChatGPT n’est pas seulement une révolution technologique : c’est aussi un cas d’école en matière de responsabilité sociale des entreprises.
Conçu à l’origine comme un contre-modèle aux GAFAM au sein d’une organisation à but non lucratif, OpenAI, la société à l’origine de ChatGPT, a progressivement basculé vers un modèle capitaliste.
L’affaire révélée par le magazine Time sur les conditions de travail des sous-traitants kenyans — employés par Samasource, une ancienne ONG devenue entreprise à but lucratif — a mis en lumière les paradoxes du modèle.
Ces révélations posent une question de fond : les statuts “non lucratifs” servent-ils aujourd’hui de tremplin à des entreprises technologiques motivées par le profit plutôt que par l’intérêt général ?
Retour sur un cas emblématique et les interrogations qu’il soulève.
Bien que le secteur à but non lucratif se structure traditionnellement autour de valeurs de gouvernance démocratique, de transparence et d’éthique, certaines situations viennent interroger cette éthique de solidarité.
Comme toute entreprise, les organisations à but non lucratif sont confrontées à des pressions économiques : baisse de revenus, difficultés de trésorerie, plans sociaux…
Ces contraintes les obligent parfois à faire coexister éthique et performance, au risque que la recherche d’efficacité supplante progressivement la mission d’intérêt général.

L’évolution d’OpenAI : du modèle non lucratif au statut à but lucratif limité
Fondée en 2015 par Elon Musk et Sam Altman, OpenAI naît comme une organisation à but non lucratif.
Son ambition initiale : développer une intelligence artificielle au service du bien commun, en opposition aux modèles de captation de données des géants du numérique.
Mais en 2019, un an après le départ d’Elon Musk, la structure change de statut pour devenir une “limited-profit company”, un modèle hybride américain permettant d’accueillir des capitaux privés tout en plafonnant la rémunération des investisseurs.
Malgré cette évolution, OpenAI continue d’affirmer que sa mission est de « développer une intelligence artificielle pour le bénéfice de toute l’humanité ».
Jusqu’à la publication de l’enquête du Time en janvier 2023, l’entreprise cultivait une image d’éthique et de transparence fidèle à ses origines.
Mais l’enquête révèle que pour résoudre les problèmes de toxicité linguistique dans ses modèles d’IA, OpenAI a eu recours à un prestataire basé au Kenya, où des travailleurs ont été exposés à des contenus violents et haineux pour un salaire dérisoire.
Dans sa réponse officielle, la direction d’OpenAI affirme ne pas avoir eu connaissance des conditions de travail de ce sous-traitant.
Cependant, l’affaire a profondément écorné son image de pionnier éthique de l’intelligence artificielle.
De fortes pressions dans un secteur ultra-compétitif
Ce scandale révèle le paradoxe entre compétitivité et éthique dans le secteur de l’intelligence artificielle.
Pour rester dans la course face aux GAFAM, OpenAI s’est heurtée aux limites de ses engagements moraux.
Le prestataire mis en cause travaille d’ailleurs pour la plupart des concurrents directs d’OpenAI, en raison de tarifs extrêmement compétitifs.
Les géants comme Google, Meta ou Microsoft ont eux aussi recours à ces sous-traitants chargés de filtrer les données violentes ou haineuses, dans le cadre de l’entraînement de leurs modèles.
OpenAI n’a donc pas inventé cette pratique : elle l’a reproduite pour survivre dans une industrie dominée par la logique de vitesse et de performance.
Son évolution – du statut juridique à la recherche de fonds – l’a rendue de plus en plus semblable à ses concurrents, y compris dans ses méthodes.
La principale critique adressée à OpenAI tient à l’incohérence entre son discours et ses pratiques.
L’entreprise s’était imposée mondialement grâce à un positionnement moral fort. Lorsque la réalité de son fonctionnement a été dévoilée, une partie du public s’est sentie trahie.
Mais il serait injuste de généraliser ce cas à l’ensemble du secteur non lucratif ou à celui de l’IA.
Le développement de l’intelligence artificielle reste une opportunité majeure pour la Social Tech, qui pourra s’appuyer sur ces outils pour produire des innovations éthiques, responsables et utiles au bien commun.
Quelle est la position de ChatGPT lui-même ?
Pour clore l’analyse, ChatGPT a été interrogé sur le dilemme éthique auquel ses créateurs ont été confrontés : productivité ou éthique ?
Sa réponse est sans équivoque :
« Les entreprises qui se revendiquent d’un modèle éthique ou à but non lucratif ont une responsabilité envers le public et le reste du secteur. La transparence et la redevabilité sont des conditions essentielles de la confiance. »
Une position lucide, bien éloignée des ambitions financières actuelles d’OpenAI, qui prévoit désormais d’atteindre 1 milliard de dollars de revenus d’ici 2024 — un objectif qui s’éloigne sensiblement de son intention initiale : créer une intelligence artificielle au service de l’humanité.
