Montrer l’index Cacher l’index
Alors que l’implémentation de l’intelligence artificielle dans le monde professionnel progresse, elle n’a pas encore conduit à une révolution de la productivité, selon une étude menée par une équipe d’enseignants chercheurs de HEC. Les tests effectués montrent que, souvent, la distinction entre textes générés par IA et ceux rédigés par des humains reste floue, ce qui impacte la perception et la reconnaissance du travail des employés. De plus, le phénomène d’«adoption cachée» freine l’utilisation bénéfique à l’échelle d’une entreprise, soulevant des défis en matière de transparence, de sécurité et de propriété intellectuelle.
Malgré le potentiel énorme de l’Intelligence Artificielle (IA) à transformer le paysage professionnel, son adoption reste aujourd’hui marquée par des paradoxes et des lacunes. Des études récentes, notamment de HEC, indiquent que, bien que l’IA s’insère progressivement dans les entreprises, elle n’a pas encore démontré une hausse significative de la productivité. Plusieurs obstacles, tels que la reconnaissance des textes générés par l’IA, les perceptions biaisées des employés et des managers, ainsi que des politiques d’entreprises peu claires, freinent une adoption généralisée.
Des perceptions biaisées de l’IA
Une étude menée par HEC a révélé que de nombreux managers ont du mal à différencier un document généré par l’IA d’un écrit humain. En testant des textes produits avec et sans l’aide de ChatGPT, il est apparu que 73% des managers n’ont pas repéré l’utilisation de l’intelligence artificielle, et 77% ont cru en voir là où elle n’était pas présente. Cette confusion illustre la difficulté de reconnaître l’influence de l’IA sur le contenu, impactant la perception de la valeur ajoutée par les outils d’IA.
L’adoption cachée au détriment de la productivité
Un phénomène connu sous le nom de « shadow adoption » ou « adoption cachée » illustre le comportement des employés utilisant des outils d’IA sans en faire part à leur hiérarchie. Cette clandestinité représente un obstacle majeur à une intégration efficace de l’IA dans le processus de production. Bien que les individus puissent bénéficier d’un gain de temps personnel, l’absence de politique transparente empêche un usage plus généralisé de l’IA qui pourrait, en théorie, améliorer la productivité globale de l’entreprise.
Les dangers de l’absence de lignes directrices
L’étude d’HEC suggère que sans politique de transparence claire, les entreprises se mettent en danger. Les risques sont multiples : de la qualité du travail à la protection des données, en passant par la propriété intellectuelle dans des secteurs créatifs. Le recours indiscriminé à l’IA sans règles pourrait aussi favoriser la désinformation et compromettre la sûreté. D’où l’importance de définir des règles d’utilisation de ces technologies.
Les seniors, alliés inattendus de l’IA
Contrairement aux croyances populaires, ce sont souvent les employés séniors qui se montrent les plus enclins à adopter l’intelligence artificielle. Leur expérience leur permet non seulement d’identifier les erreurs, mais aussi de mieux évaluer les risques liés à l’utilisation d’outils d’IA. Plutôt que de voir l’IA comme une menace à leur emploi, ces employés perçoivent les dangers liés à la fiabilité du travail produit.
Un besoin de réévaluer les incitations
Pour surmonter ces obstacles, la recommandation est de réajuster les mécanismes d’incitation au sein des entreprises. L’idée est de valoriser les efforts des employés utilisant l’IA de façon bénéfique pour tous. Par exemple, les jeunes générations, en particulier dans les professions du droit ou de l’architecture, recherchent des employeurs faisant un usage optimisé des outils d’IA. Il devient ainsi crucial de développer une culture ouverte et constructive autour de ces technologies pour attirer et fidéliser les talents & stimuler la productivité.