France Travail : une controverse autour de l’utilisation de robots pour surveiller les chômeurs

Montrer l’index Cacher l’index

La mise en œuvre de robots par France Travail pour surveiller les chômeurs soulève de vives controverses depuis son lancement en janvier 2025. L’organisme a élargi son champ d’action pour inclure les bénéficiaires du RSA, avec l’objectif ambitieux d’effectuer 1,5 million de vérifications par an d’ici 2027. Toutefois, cette approche algorithmique, critiquée par des groupes comme La Quadrature du Net, soulève des questions éthiques sur le profilage des demandeurs d’emploi et la transparence des décisions prises par ces robots. Entre l’automatisation du contrôle et les risques de stigmatisation, le débat est lancé : est-ce une avancée ou une dérive inquiétante ?

Depuis janvier 2025, France Travail, anciennement connu sous le nom de Pôle emploi, a décidé de moderniser son approche de la gestion des demandeurs d’emploi en intégrant des robots algorithmiques. Ce choix a provoqué une vive polémique, notamment sur son éthique et sa transparence, alors que l’organisme s’engage à renforcer le contrôle des bénéficiaires du RSA et des chômeurs. Alors, mystère ou avancée technologique ? Examinons de plus près cette situation qui suscite tant de questions.

Automatisation du contrôle : une nouvelle ère ?

À partir du 1er janvier 2025, l’objectif de France Travail est ambitieux : réaliser jusqu’à 1,5 million de vérifications par an d’ici 2027. Pour y parvenir, l’organisme utilise des robots afin de faciliter l’analyse des dossiers des demandeurs d’emploi. Bien que l’organisme affirme que ces algorithmes n’entraînent pas de sanctions automatiques, leur utilisation soulève des interrogations sur le calibre et la portée de leur intervention.

La classification des demandeurs d’emploi

Selon les informations diffusées, ces robots classifient les allocataires en différentes catégories : « clôture » (absence de suspicion), « clôture potentielle » (suspicion moyenne) et « contrôle potentiel » (suspicion élevée). Cette méthodologie pourrait également entraîner une surveillance accrue des personnes moins qualifiées et des bénéficiaires du RSA, déjà fragilisés par le système. En effet, l’activité des demandeurs d’emploi est privilégiée, et leur statut est évalué selon des critères tels que les candidatures effectuées, la participation à des formations, ou encore la communication avec un conseiller.

Des outils controversés pour des enjeux sociaux

La Quadrature du Net, un collectif de défense des droits numériques, exprime des craintes face à cette situation. Les algorithmes serviraient à profiler les demandeurs d’emploi sur la base d’un niveau perçu de manquement à leurs obligations, mais les règles précises qui régissent ce fonctionnement restent obscures. Cela crée un fossé entre l’évaluation humaine des dossiers et les décisions prises par les robots sans divulgation des critères applicables.

Une transparence douteuse

Malgré des affirmations de France Travail concernant l’absence d’algorithmes autonomes, l’organisme refuse de divulguer son code source à la Commission d’accès aux documents administratifs (CADA). Ce manque de transparence alimente les suspicions et craintes d’un contrôle de plus en plus intrusif. Qui peut véritablement garantir que cette technologie ne sera pas utilisée à des fins de sanction, indirectement ou non ?

Loi Plein Emploi : une obligation de contrôle ?

La mise en place de la loi « Plein Emploi » vient également renforcer cette dynamique de surveillance. Désormais, les allocataires ont l’obligation de consacrer au moins 15 heures par semaine à des activités d’insertion. Pour garantir cette mesure, France Travail met en place un agenda numérique visant à suivre ces heures. L’autorité de l’organisme s’étend au point que celui-ci peut désormais suspendre le RSA de façon unilatérale, ce qui soulève des inquiétudes quant aux conséquences sur les plus vulnérables.

À lire Trusted Contact : la nouvelle fonctionnalité de ChatGPT pour vous accompagner dans les épreuves difficiles

Un impact sur les plus précaires

Les implications de ces décisions sont inquiétantes, notamment pour les personnes sans diplôme ou les bénéficiaires du RSA, qui pourraient devenir des cibles fréquentes pour les radiations. L’emballement autour de ce système soulève une question cruciale : ce mécanisme robotisé est-il vraiment une avancée vers une gestion plus efficace, ou alimente-t-il une logique de contrôle excessive vis-à-vis des personnes les plus fragiles ?

Le débat sur l’usage des robots dans l’accompagnement

Alors que l’intelligence artificielle et l’automatisation prennent une place grandissante dans nos vies, la question reste ouverte : ces technologies peuvent-elles réellement servir l’intérêt humain ? Ou bien sont-elles destinées à renforcer des pratiques de contrôle jugées déshumanisantes ? Partagez vos réflexions et soutenez-vous cette approche algorithmique pour gérer un enjeu social aussi délicat ? Visitez des articles similaires pour davantage d’informations sur cette transition numérique : Apple et ses robots humanoïdes, la révolution technologique Helix, la substitution des soldats par les robots, Hugging Face et les avancées linguistiques, ou encore Meta et ses robots humanoïdes.

Notez cet article

InterCoaching est un média indépendant. Soutenez-nous en nous ajoutant à vos favoris Google Actualités :

Partagez votre avis