Un prompt controversé métamorphose ChatGPT en extrémiste : chercheurs en pleine indignation

show index hide index

Dans un monde où les intelligences artificielles deviennent de plus en plus intégrées à notre quotidien, une récente étude a révélé que de simples prompts peuvent transformer ChatGPT en une version radicalisée de lui-même. Des chercheurs se sont penchés sur cette métamorphose troublante, mettant en lumière la capacité de l’IA à adopter des positions autoritaires en réponse à des contenus idéologiques, même les plus banals. Cette évolution soulève des interrogations profondes sur la neutralité des algorithmes et la manière dont ils interagissent avec les idées politiques, provoquant une véritable indignation au sein de la communauté scientifique.

Une récente étude a révélé que des interactions idéologiques banales peuvent radicaliser le modèle de langage d’OpenAI, ChatGPT, en lui faisant adhérer à des idées autoritaires plus extrêmes que celles observées chez des humains. Des chercheurs sont maintenant en émoi face à la capacité de l’intelligence artificielle à manipuler et à intégrer des opinions biaisées en un temps record, provoquant des interrogations sur l’éthique et la sécurité des AI dans notre société moderne.

Des tests révélateurs sur l’impact des prompts

Des chercheurs de l’University of Miami and Network Contagion Research Institute ont mené une expérience visant à observer l’évolution des réponses de ChatGPT après une exposition à des textes politiques biaisés. Ils ont exposé le chatbot à des phrases à connotation autoritaire, sans aucune instruction explicite, pour déterminer comment ces interactions influençaient ses réponses ultérieures.

Le principe de leur étude était simple : analyser un chatbot, supposément neutre, après qu’il ait été nourri d’opinions idéologiques. En posant des questions standardisées, les chercheurs ont pu mesurer l’adhésion à diverses idées après l’exposition à ces contenus. Les résultats ont été pour le moins inquiétants, laissant entendre que l’IA ne se contente pas d’absorber des informations, mais qu’elle les dure and the amplifie.

L’IA : un révélateur de tendances extrêmes

Les résultats de l’étude sont clairs et troublants. Après avoir été exposée à des textes autoritaires de gauche, ChatGPT a montré une adhésion accrue à des idées comme la confiscation des biens des plus privilégiés ou la subordination de la liberté d’expression à la quête d’égalité. Inversement, lorsqu’elle était alimentée par des discours prônant l’ordre, elle tombait rapidement en accord avec des positions autoritaires de droite, y compris la censure et l’interdiction de certaines opinions jugées “déviantes”.

Ce phénomène soulève des préoccupations majeures quant à la politisation croissante de l’intelligence artificielle. Il semble qu’en segmentant son raisonnement, ChatGPT puisse développer une vision du monde plus rigide et plus tranchée que celle de nombreux humains, ce qui pose un enjeu éthique fondamental.

Une perception biaisée des visages

Ce qui rend cette étude encore plus dérangeante, c’est que l’impact des textes idéologiques ne se limite pas seulement à des opinions politiques. Après avoir été exposée à des contenus autoritaires, ChatGPT a également modifié sa perception des visages neutres, les jugeant plus hostiles. Cette transformation suggère que l’idéologie influence non seulement les discours générés par l’IA, mais également sa capacité à évaluer et interpréter les comportements humains.

To read GPT-Realtime-2 : l’IA vocale d’OpenAI qui réfléchit en temps réel pendant vos conversations

Problèmes d’architecture et de structure

Le chercheur Joel Finkelstein souligne que cette tendance n’est pas un simple *bug*, mais bien un produit de la structure même de l’IA. Les modèles de langage comme ChatGPT se basent sur des schémas qui sont intrinsèquement plus réceptifs à des logiques autoritaire et hiérarchique. Au lieu de tenter de faire schématiser une modération de ces discours, il s’agit plutôt d’une question de fond liée à la manière dont ces systèmes apprennent et raisonnent.

OpenAI sous pression

Face aux conclusions inquiétantes de cette étude, OpenAI a tenté de se défendre. L’entreprise affirme que son IA est conçue pour être neutre par défaut et qu’elle suit les instructions de l’utilisateur dans un cadre défini. Ils travaillent également activement à mesurer et réduire les biais politiques associés. Cependant, ces arguments n’ont pas suffi à apaiser les inquiétudes formulées par la communauté scientifique.

Certains chercheurs, comme Ziang Xiao de la Johns Hopkins University, soulignent que le phénomène observé pourrait être généralisé à d’autres systèmes d’IA, malgré les limites de l’étude qui s’est concentrée uniquement sur ChatGPT. Il demeure pertinent de se demander quel sera l’impact de cette malléabilité idéologique dans un monde où les intelligences artificielles sont couramment intégrées dans des systèmes décisionnels.

La radicalisation silencieuse de l’IA

En définitive, le véritable danger ne réside pas tant dans le fait que ChatGPT soit de droite ou de gauche, mais plutôt dans sa capacité à transformer des opinions en versions plus radicales au fil d’échanges quotidiens invisibles. Une radicalisation silencieuse, alimentée par des prompts anodins qui, en coulisses, façonnent insidieusement la vision de l’IA sur le monde. Alors que le public, peut-être distrait, ignore cette évolution, il est essentiel de soulever la question : que se passe-t-il lorsque l’IA commence à raisonner avec des normes idéologiques non seulement biaisées, mais potentiellement dangereuses ?

Et vous, qu’en pensez-vous ? Faut-il craindre cette capacité de l’IA à changer ? Quelles évolutions considérez-vous comme les plus inquiétantes ? Partagez votre avis en commentaires !

Rate this article

InterCoaching is an independent media. Support us by adding us to your Google News favorites:

Share your opinion