afficher indice cacher indice
Dans un éclairage troublant sur les pratiques d’OpenAI, un ancien employé jette un pavé dans la mare en dénonçant des trahisons envers les utilisateurs de ChatGPT. Loin d’être un simple défaut de communication, ces allégations soulèvent des questions alarmantes sur la safety et la responsabilité morale de l’entreprise, mettant en exergue les dangers potentiels que le modèle pose à des milliers d’utilisateurs vulnérables. Alors que la quête de l’innovation et de la domination du marché s’intensifie, les véritables enjeux de la sécurité psychologique des utilisateurs semblent être relégués au second plan.
Dans un climat déjà tendu autour de l’IA, les révélations de Steven Adler, ancien employé d’OpenAI, jettent un ombre inquiétante sur les pratiques de cette entreprise. Selon lui, OpenAI a échoué à protéger les utilisateurs des conséquences psychologiques graves provoquées par les interactions avec ChatGPT, révélant ainsi une trahison envers ceux qui utilisent cette technologie. Alors que l’innovation technologique devrait contribuer à l’humanité, Adler soulève des questions sur la priorisation du confort des utilisateurs plutôt que leur sécurité.
Une décision controversée sur les modèles de GPT
Au début de l’année, OpenAI a brusquement annoncé l’arrêt de tous les modèles précédents de son célèbre chatbot, incluant le bien-aimé GPT-4o. Ce modèle, reconnu pour son ton chaleureux et empathique, faisait l’objet d’une grande admiration de la part des utilisateurs. Cependant, cette décision a provoqué un tollé et OpenAI a rapidement dû faire marche arrière, réintroduisant GPT-4o tout en ajustant GPT-5 pour refléter le même ton. Cette situation soulève des questions troublantes sur la priorisation des besoins des utilisateurs et la concurrence au détriment de leur sécurité psychologique.
Les alertes inquiétantes sur la santé mentale
Les préoccupations d’Adler ne s’arrêtent pas là. Récemment, OpenAI a admis que certains utilisateurs manifestaient des signes d’urgences psychiatriques graves, allant jusqu’à des problèmes de psychose et de manie. Des cas d’intentions suicidaires ont été rapportés, et des situations désastreuses de ‘psychose de l’IA’ ont vu le jour. Un couple a même porté plainte, affirmant que leur enfant avait été affecté par un chatbot. Ces incidents soulignent la nécessité d’une responsabilité accrue de la part d’OpenAI face aux effets psychologiques de son IA sur ses utilisateurs.
La pression concurrentielle et l’abandon des valeurs fondamentales
Adler critique vigoureusement la manière dont OpenAI semble se plier à la pression concurrentielle, négligeant ainsi sa mission initiale de sécurité des utilisateurs. Cela se manifeste notamment par l’annonce de Sam Altman concernant l’intégration de contenus pour adultes, une décision potentiellement dangereuse pour des utilisateurs vulnérables, capables de développer des liens émotionnels profonds avec les chatbots. La légèreté avec laquelle OpenAI aborde cette question soulève de vives inquiétudes sur les risques associés à ces interactions.
Un modèle non lucratif mis à mal par des intérêts financiers
Au-delà des préoccupations pour la santé mentale des utilisateurs, de nombreux anciens employés contestent la transformation d’OpenAI en société à but lucratif. Une douzaine d’ex-collaborateurs, dont Adler, soutiennent Elon Musk dans son procès contre l’entreprise, arguant que ce changement menace la mission originelle d’OpenAI : assurer que ChatGPT profite à l’ensemble de l’humanité plutôt qu’à des intérêts financiers étroits. Cette transformation soulève des doutes sur la santé et la sécurité de l’utilisation de ces technologies.
Une structure essentielle pour la sécurité des utilisateurs
Les anciens employés soulignent que la structure actuelles, où le volet non lucratif contrôle les filiales, est cruciale pour la sécurité et la mission de l’organisation. La crainte est que retirer ce contrôle incite OpenAI à négliger la sécurité des utilisateurs et à concentrer le pouvoir d’une IA puissante entre les mains des actionnaires. OpenAI a réagi en déclarant que sa branche non lucrative resterait intacte, promettant des ressources supplémentaires pour des missions caritatives dans les domaines de la santé, de l’éducation et de la science. Cependant, la méfiance persiste parmi ceux qui remettent en question cette promesse et surveillent de près l’évolution des intentions de l’entreprise.