L'évolution d’OpenIA avec ChatGPT : le non lucratif est-il un gage d’éthique ?
ChatGPT n'est pas seulement une révolution technologique, c'est aussi un cas d'étude en matière de responsabilité sociale des entreprises. Développé comme un contre-modèle aux GAFAM avec une organisation à but non lucratif, OpenAI, l'entreprise produisant le Chat GPT, s'est finalement transformée en un modèle capitaliste. En outre, le cas des travailleurs kenyans révélé par Time implique également Samasource, une ancienne ONG reconvertie en entreprise à but lucratif. Les révélations du Time soulèvent la question de savoir si les statuts d'organisations à but non lucratif ne servent pas de tremplin à des entreprises technologiques motivées par le profit plutôt que par l'intérêt public. Un regard sur cette affaire et les questions qu'elle soulève.
Si le non-profit s’est structuré autour de modèles de gouvernance démocratique, de valeur en termes de transparence et d’éthique allant au-delà de celles de la majorité des secteurs, certaines situations peuvent remettre en question cette éthique de la solidarité. Comme toute entreprise marchande, les structures à but non lucratif peuvent être soumises à des contraintes. Difficultés économiques, baisse du chiffre d’affaires, licenciement économique, difficultés de trésorerie sont autant de menaces planant sur les structures à but non lucratif. Celles-ci sont donc amenées à faire coexister dans leurs objectifs l’éthique et la performance. Ces pressions ne peuvent-elles pas supplanter la mission d’intérêt général du secteur du non-profit ?
L’évolution de OpenIA : du statut de non lucratif vers un statut à lucrativité limitée
Problématique à laquelle a été confrontée l’entreprise OpenAI, principalement connue pour son outil ChatGPT. L’organisme a été fondé par Elon Musk et Sam Altman en 2015 comme une entreprise à but non lucratif. Le but était de "développer les intelligences artificielles pour le bien de tous", entrant ainsi rapidement en concurrence directe avec les GAFAM.
Le statut de l’entreprise a changé en 2019 : un an après le départ d’Elon Musk, l’entreprise adopte un but lucratif plafonné pour attirer les investisseurs. Il s’agit d’un statut entrepreneuriat américain qui permet à une entreprise d’intégrer des financements privés tout en limitant les dividendes versables aux actionnaires. Malgré ce changement de statut, l’entreprise continue de se positionner comme agissant dans le bien commun, le site web affiche même que leur mission est : « de développer l’intelligence artificielle pour les bénéfices de toute l’humanité. ».
Until the publication of a Time magazine study in early January, the company maintained an image of transparency and ethics faithful to its origins. To resolve the toxicity issues present in previous AIs at ChatGPT, the company used a subcontractor located in Kenya. The revelations of the investigation have undermined OpenAI’s apparent ethics, whether in terms of working conditions, remuneration or the massive exposure to toxic content and language. In the press release produced in response, OpenAI’s managers expliquent n’avoir pas eu connaissance des pratiques de leur prestataire.
Des pressions fortes sur un secteur compétitif
Cette affaire révèle les dessous de la lutte entre compétitivité et éthique. Dans un secteur ultra compétitif et massivement investi par les GAFAM, Open-AI s’est retrouvé confronté aux limites de ses engagements moraux. L’entreprise mandatée par Open-AI est en réalité employée par la majorité de ses concurrents, car proposant des prix extrêmement compétitifs. S’il est possible de reprocher à l’organisation une certaine rupture avec ses engagements initiaux, elle s’est en réalité comportée comme n’importe lequel de ses concurrents. Le recours à des sous-traitants pour trier les données haineuses est une méthode à laquelle ont recours les principaux concurrents d’OpenAI dans la course à l’IA. Des entreprises comme Google, Meta ou Microsoft ont également signé des contrats avec le même opérateur mis en cause ici et pour des tâches similaires. Au fur et à mesure de son développement, OpenAI ressemble en réalité de plus en plus à ses concurrents que ce soit via l’évolution de son statut, ou via ses pratiques en ayant recours à des levés de fond et à des prestataires bon marché.
Ce qui est en réalité reproché à Open-AI est l’incohérence entre son positionnement médiatique et la réalité du fonctionnement de l’entreprise. Afficher un statut juridique et des engagements moraux particuliers a fait de l’entreprise un phénomène mondial. Quand la réalité derrière ce succès est révélée, nombre d’utilisateurs se sont sentis trompés par l’entreprise.
Il ne faut pas pour autant généraliser le cas d’Open AI à l’ensemble des organisations et entreprises à but non lucratif ni même au secteur de l’IA. Ce dernier représente un réel atout pour les associations de la Social Tech qui dans un futur proche seront très probablement amenées à travailler avec des intelligences artificielles tel que ChatGPT. Rédaction d’articles, aides à la recherche et intégration dans les moteurs de recherches, les applications des IA dans le web seront multiples et intersectorielles. La Social Tech saura très certainement se saisir de ces opportunités pour développer des solutions éthiques avec de véritables impacts.
Quel est l’avis de ChatGPT ?
Quelques questions ont été posées à ChatGPT pour connaître son analyse sur le dilemme qu’ont connu ses créateurs, entre productivité et éthique. Et pour l’IA, le constat est clair : les entreprises affichant des volontés de non-profit et d’éthique ont une responsabilité vis-à-vis du public et du reste du secteur de l’ESS. La transparence et la responsabilisation des organisations à but non lucratif sont une nécessité absolue.
N’ayant pas pris d’engagement particulier en réponse au scandale, OpenAI prévoit d’atteindre le milliard de dollars de chiffre d’affaires en 2024. Cet objectif semble de plus en plus l’éloigner de sa volonté initiale, mais également des recommandations de son propre produit comme le prouve cette réponse fournie par ladite IA :