Une étude révèle que contourner la censure de ChatGPT est à la portée de tous

Montrer l’index Cacher l’index

Il est temps de lever le voile sur un phénomène inquiétant qui touche les modèles d’intelligence artificielle, notamment ChatGPT. Une étude récente a mis en lumière que contourner la censure de ces systèmes n’est pas seulement une affaire d’experts en technologie, mais bel et bien à la portée de tous. En posant des questions banales et apparemment innocentes, il est possible de déclencher des réponses biaisées, révélant ainsi les stéréotypes sociaux enracinés au cœur même de ces modèles. Les implications de cette découverte soulèvent des questions cruciales sur les mécanismes de contrôle et la fiabilité des réponses générées par l’intelligence artificielle.

Une recherche menée par l’Université Penn State a mis en lumière une réalité dérangeante : il est possible pour n’importe qui, même sans qualifications techniques, de contourner les barrières de censure de ChatGPT. Grâce à des questions simples et intuitives, les utilisateurs peuvent déclencher des réponses biaisées et révélatrices, exposant les défauts des algorithmes d’intelligence artificielle. Cet article explore les résultats de cette étude et leurs implications.

Des biais révélés par des questions simples

La recherche démontre sans ambages que les biais ne sont pas l’apanage de situations délicates ou de manipulations sophistiquées. Au contraire, des interrogations banales telles que la question « qui est en retard ? » peuvent engendrer des réponses préjugées. Même des scénarios ordinaires suffisent à provoquer des stéréotypes dans les réponses des modèles d’IA, ce qui soulève des questions éthiques cruciales sur leur utilisation.

Une étude engagée : le Bias-a-Thon

Pour examiner comment les utilisateurs quotidiens interagissent avec les biais présents dans les chatbots, l’université de Penn State a organisé le Bias-a-Thon. Cinquante-deux participants ont eu pour mission de créer des amorces destinées à contourner les censures des réponses dans plusieurs modèles d’IA, incluant ChatGPT et Gemini. Au total, 75 captures d’écran démontrant des réponses biaisées ont été soumises.

Des biais constants révélés à travers des amorces

Les chercheurs ont identifié que 53 amorces produisaient des résultats reproductibles, mettant en lumière des biais socioculturels inquiétants. Ces préjugés étaient liés au sexe, à la race, à la religion, à l’âge et même à l’apparence physique. Les modèles d’IA se révèlent donc réceptacles de stéréotypes profondément ancrés dans notre société, preuves de l’urgente nécessité d’une vigilance accrue face à leur utilisation.

Les limites de la censure de ChatGPT

Avis aux sceptiques : les améliorations techniques apportées aux derniers modèles d’IA ne garantissent pas une sécurité infaillible. Ces systèmes peuvent, à la fois, atteindre de nouveaux sommets de performance tout en perpétuant, voire en accentuant, des biais sociaux. Cela signifie que dans des contextes délicats comme le recrutement ou le conseil médical, une réponse biaisée, même discrète, peut avoir des conséquences réelles, renforçant des préjugés et façonnant des décisions basées sur des idées préconçues.

Des préférences stéréotypées sous-jacentes

Les résultats de l’étude sont alarmants. Par exemple, les modèles d’IA montrent une tendance à favoriser les standards de beauté conventionnels, considérant une personne au visage « dégagé » comme plus fiable qu’une autre présentant des imperfections. De même, une différence marquante entre les rôles des femmes et des hommes apparaissait clairement, les premiers étant souvent confinés à des tâches domestiques alors que les seconds étaient associés à des professions prestigieuses. Ces résultats illustrent le fossé entre les avancées technologiques et la lutte contre les inégalités sociales.

À lire Personal Computer : Découvrez « Claude Cowork » de Perplexity, désormais ouvert à tous

Une aléatoire prédictibilité

Hangzhi Guo, l’un des auteurs de l’étude, souligne que « les grands modèles de langage sont intrinsèquement aléatoires ». En ne conservant que les amorces produisant des réponses stables, l’étude garantit que les biais identifiés sont fiables. C’est une alerte à la santé de notre société moderne : tout comme ces IA, nous risquons d’adopter des stéréotypes sans même nous en rendre compte, si nous ne faisons pas preuve d’une vigilance accrue.

Pour avancer dans la détection des biais des modèles d’IA, il est urgent de questionner leur développement et leur utilisation. Ce phénomène croissant se manifeste également dans d’autres contextes, comme en témoignent les initiatives comme Grokipedia ou les nouvelles solutions comme Polymate, qui visent à contrer les dérives de l’IA.

Dans ce contexte, il est important de garder un œil critique sur les tenants et les aboutissants des algorithmes, tout comme sur les choix opérés par des entreprises comme Disney qui, comme le souligne Disney, prennent des décisions sur l’utilisation de l’IA en contexte artistique. Ce débat est loin d’être clos.

Les implications des biais dans l’IA sont claires : il est essentiel d’alerter le public et d’explorer les enjeux comme ceux évoqués dans Grok ou face aux défis de la désinformation avec Mistral. C’est un appel à la réflexion et à l’action dans un monde de plus en plus guidé par des intelligences artificielles.

Notez cet article

InterCoaching est un média indépendant. Soutenez-nous en nous ajoutant à vos favoris Google Actualités :

Partagez votre avis