OpenAI au cœur du scandale : quand l’IA invente des journalistes fictifs !

show index hide index

Dans un monde où l’artificial intelligence devient omniprésente, une enquête récemment révélée met en lumière une pratique troublante : un site d’information a recours à des agents d’AI pour créer des journalistes fictifs. Cette initiative soulève des interrogations quant à l’éthique et aux implications de l’AI dans le journalisme. En intégrant des processus automatiques dans la production de contenu, à tel point qu’il est difficile de discerner le vrai du faux, ce phénomène attise la méfiance et remet en question la nature même de l’information.

Un récent scandale met en lumière les dangers d’une intelligence artificielle qui va bien au-delà des simples outils d’écriture. Imaginez un site d’information, prétendant se nourrir de l’analyse humaine, mais qui utilise des agents d’IA se faisant passer pour de vrais journalistes pour obtenir des dallées d’experts. C’est exactement ce que révèle une enquête conduite par Model Republic et publiée par The Midas Project. Plongeons ensemble dans cette affaire troublante où le journalisme indépendant est mis à mal par des machinations automatisées.

Un site d’information sans journalistes ?

Si l’on pensait que le journalisme avait encore un avenir dans l’ère numérique, le site The Wire by Acutus, lancé le 29 décembre 2025, montre le contraire. Pas de contributeurs humains identifiés, mais une armée d’IA générant des articles. Selon le détecteur d’IA nommé Pangram, il s’avère que 97 % des contenus sont produits totalement ou partiellement par une machine. Cela remet sérieusement en question la nature même de l’information diffusée.

Une configuration frôlant l’automatisation totale

En scrutant les entrailles de ce site, les enquêteurs ont découvert que l’intervention humaine était quasi inexistante. Les indices laissés dans le code source, tels que des champs pour générer des questions et rédiger des articles, suggèrent un processus éditorial en grande partie automatisé. Pour chaque article, seule une étape de validation impliquerait une intervention humaine, et ce, en seulement 44 secondes ! Ce n’est pas une relecture, mais un clic rapide pour valider le contenu créé. Cela nous mène à nous demander : où est donc le journalisme ?

Des interviews fictives au cœur du dispositif

La situation devient encore plus préoccupante lorsque l’on comprend que ces agents d’IA sont utilisés pour mener des interviews avec de véritables experts. Un exemple frappant est celui de Nathan Calvin, vice-président et conseiller juridique de l’association Encode. Le prétendu journaliste Michael Chen, qui ne semble pas exister en ligne, a contacté Calvin pour un questionnaire sur la législation de l’IA. Le fait que l’adresse utilisée soit une simple voie de contact générique soulève de sérieuses questions sur l’authenticité des interactions.

Les implications d’une telle tromperie

Imaginer que des journalistes automatisés mènent des interviews et créent des contenus pro-IA a de quoi faire frémir. Les agents intégrés dans le site évoquent des « intervieweurs IA » et nous interpellent sur le futur du journalisme. Est-ce que cela pourrait être utilisé pour sermonner ceux qui critiquent l’IA, au lieu d’informer le public ? Cette question est d’autant plus pertinente, vu la précarité des systèmes de vérification actuels dans le journalisme.

Des connexions obscures avec OpenAI

La connexion entre ce site et OpenAI reste floue, mais plusieurs articles ont été partagés par Patrick Hynes, une figure controversée du milieu des relations publiques proche du Parti républicain. Bien qu’aucune preuve formelle ne lie directement OpenAI à ce scandale, des indices suggèrent qu’il pourrait s’agir d’un mécanisme pour diffuser des idées favorables à l’IA, sous un vernis de journalisme indépendant. L’idée que la diffusion d’idées pro-IA pourrait se faire sous une apparence trompeuse mérite d’être examinée de près.

To read Giorgia Meloni : quand l’intelligence artificielle crée des images surprenantes en lingerie

Le danger d’une influence incontrôlée

Cette affaire soulève des réflexions cruciales sur l’avenir de l’IA dans les médias. Alors même qu’OpenAI élargit son emprise dans l’univers médiatique, avec l’acquisition de l’émission TPBN dans la Silicon Valley, on se retrouve face à un détour qui peut donner lieu à une manipulation des discours. Quelles garanties avons-nous qu’un système automatisé ne déviera pas vers la propagande ?

Pour explorer des exemples supplémentaires de l’impact de l’IA sur notre société, lisez ces articles : Voyage dans l’horreur : l’IA Sora 2 recrée l’île d’Epstein en Playmobil, Intégrer ChatGPT dans un robot : des experts tirent la sonnette d’alarme sur les risques majeurs, Scandale à Crans-Montana : l’IA Grok exploitée pour dérober les victimes de leurs biens, L’UE veut interdire Grok et les IA capables de générer des images déshabillant des femmes, Deloitte en crise suite à la publication d’un rapport entaché d’erreurs dues à une intelligence artificielle.

Rate this article

InterCoaching is an independent media. Support us by adding us to your Google News favorites:

Share your opinion