OpenAI révèle la réalité : la justice l’oblige à conserver toutes vos conversations sur ChatGPT

Montrer l’index Cacher l’index

Dans un tournant qui ébranle la confiance des utilisateurs, OpenAI se retrouve contraint par une décision judiciaire à préserver toutes les discussions de ChatGPT, allant à l’encontre des pratiques précédentes de confidentialité. Cette ordonnance, qui émane d’une plainte de plusieurs médias, dont le New York Times, jette une lumière crue sur les enjeux de privacy et de contrôle des données. Les considérations sur la protection des données personnelles et les violations des droits d’auteur se mêlent, suscitant des inquiétudes croissantes parmi une communauté d’utilisateurs désormais exposée.

Depuis le 13 mai 2025, OpenAI se trouve dans l’œil du cyclone. Une ordonnance judiciaire l’oblige à conserver toutes les discussions des utilisateurs de ChatGPT, même celles qui auraient été supprimées. Le conflit, né d’un litige avec plusieurs médias, dont le New York Times, met en lumière des accusations de violation des droits d’auteur qui pourraient bouleverser la perception de la vie privée au sein des interactions sur cette plateforme.

Un litige qui bouleverse la confidentialité

Tout a commencé le 27 décembre 2023, lorsque le New York Times a déposé une plainte contre OpenAI et Microsoft. La cible ? L’utilisation, sans autorisation, de millions d’articles protégés par le droit d’auteur pour entraîner le modèle ChatGPT. Une accusation qui peut sembler banale, mais qui cache des enjeux bien plus profonds concernant la façon dont les données sont gérées et la sécurité des utilisateurs.

Les plaignants soutiennent que les utilisateurs peuvent contourner les paywalls pour accéder à du contenu protégé, puis supprimer leurs historiques pour effacer toute trace de leur méfait. Une théorie qui a poussé le juge Ona Wang à craindre une destruction de preuves. En conséquence, il a ordonné à OpenAI de préserver toutes les discussions sur ChatGPT, même celles que les utilisateurs ont explicitement demandées à supprimer.

Une décision qui fait trembler OpenAI

Cette ordonnance inclut des données provenant des versions Free, Plus, Pro, mais aussi de l’API utilisée par les entreprises. OpenAI se retrouve ainsi dans une position délicate, avec une pression à la fois judiciaire et morale qui pèse sur elle. La société conteste la décision, affirmant qu’elle enfreint ses engagements de confidentialité et engendre des coûts d’ingénierie inestimables.

Il est intéressant de noter qu’OpenAI insiste sur le fait qu’elle n’a jamais supprimé des données dans le cadre de ce litige. D’ailleurs, aucune preuve n’a été apportée pour soutenir l’idée que les utilisateurs supprimeraient leurs discussions afin de dissimuler des violations. Pourtant, le tribunal a maintenu l’ordonnance, créant une agitation sans précédent parmi les utilisateurs.

La confidentialité en jeu

La question de la confidentialité devient un axe crucial dans ce débat. OpenAI clame que les discussions réalisées par les utilisateurs, qu’ils soient particuliers ou entreprises, sont chargées de données sensibles, allant des informations financières aux secrets commerciaux. Avant cette ordonnance, les utilisateurs avaient la possibilité de supprimer leurs historiques de conversation, ou même d’opter pour des « conversations temporaires », effacées automatiquement. Ces options sont désormais suspendues, et la panique monte sur les réseaux sociaux.

À lire Claude et le chantage : Anthropic lève le voile sur une révélation surprenante

Des voix s’élèvent sur des plateformes comme LinkedIn, où des consultants recommandent vivement d’éviter ChatGPT pour tous les sujets sensibles. D’autres suggèrent des alternatives telles que Mistral AI ou Google Gemini, ouvrant ainsi un débat sur la nécessité d’une IA responsable et respectueuse des normes. La question se pose : peut-on encore faire confiance à des services qui collectent et conservent nos données à notre insu ?

Perspectives d’avenir

OpenAI continue de batailler contre cette ordonnance, arguant qu’elle repose sur des spéculations sans fondement réel. Cette position conflictuelle souligne une tension inquiétante sur la façon dont les technologies d’intelligence artificielle peuvent interagir avec les régulations en matière de protection des données. Les implications de cette situation pourraient non seulement affecter OpenAI, mais ébranler la confiance dans l’ensemble du secteur de l’IA générative.

La cour n’a pas encore décidé de tenir une audience orale sur le sujet. Ce qui est certain, c’est que l’issue de cette affaire pourrait bien influencer nos perceptions de l’intelligence artificielle, et la manière dont nous choisissons d’interagir avec ces outils qui, en théorie, sont censés être à notre service.

Notez cet article

InterCoaching est un média indépendant. Soutenez-nous en nous ajoutant à vos favoris Google Actualités :

Partagez votre avis