Deloitte en crise suite à la publication d’un rapport entaché d’erreurs dues à une intelligence artificielle

show index hide index

En Australie, un scandale impliquant le prestigieux cabinet de conseil Deloitte souligne les dangers d’un usage abusif de l’intelligence artificielle. Après la publication d’un rapport truffé de fausses informations générées par un modèle IA, Deloitte est contraint de rembourser une partie d’un contrat de 250 000 euros avec le gouvernement australien. Cet incident illustre les risques liés aux hallucinations des IA, posant des questions cruciales sur la fiabilité et la responsabilité des acteurs privés dans l’utilisation de telles technologies.

En Australie, Deloitte se trouve au cœur d’une tempête après la révélation de nombreuses erreurs dans un rapport destiné au ministère de l’Emploi et des Relations professionnelles. Ce rapport, facturé environ 250 000 euros, contenait des informations erronées apparemment générées par une intelligence artificielle sans vérification humaine adéquate. Les erreurs ont mis en lumière les risques liés à l’usage des modèles génératifs, comme le modèle Azure OpenAI GPT-4o, et ont relancé le débat sur la place des IA en conseil.

Un contrat prestigieux entaché par des erreurs

Le cabinet de conseil Deloitte avait décroché un contrat majeur avec le Ministère australien de l’Emploi et des Relations professionnelles. Facturé environ 440 000 dollars australiens, ce contrat devait évaluer le système automatisé de sanctions liées à l’aide sociale du pays. Toutefois, la publication du rapport a rapidement été suivie par la découverte de multiples erreurs.

La révélation des anomalies

Plusieurs chercheurs australiens ont fait état de dysfonctionnements dans le rapport. Chris Rudge, universitaire à Sydney, a souligné l’existence de références fictives, de citations inventées et même d’une décision de justice qui n’a jamais eu lieu. Ces anomalies ont clairement pointé vers l’utilisation d’une intelligence artificielle générative, en particulier le modèle Azure OpenAI GPT-4o, sans contrôle humain suffisant.

Un travail de correction et de remboursement

Confronté à la polémique, Deloitte a corrigé le rapport en supprimant une partie des références et notes de bas de page incorrectes. En outre, le cabinet s’est engagé à rembourser une partie du montant du contrat, bien qu’il n’ait pas précisé la somme exacte. Cette démarche est toutefois jugée insuffisante par de nombreux observateurs.

Les critiques et la position du ministère

La sénatrice écologiste Barbara Pocock a sévèrement critiqué l’action de Deloitte, qualifiant l’incident de « usage abusif de l’intelligence artificielle ». Elle plaide pour le remboursement intégral du contrat. Le ministère australien, de son côté, a confirmé que les erreurs provenaient de l’utilisation inappropriée de l’IA pour la rédaction du rapport.

Une mise en cause du rôle de l’IA dans le conseil

Ce scandale relance la question de la place de l’IA dans les missions de conseil. De nombreux experts s’inquiètent de la capacité des outils d’intelligence artificielle à générer des « hallucinations » indétectables sans vérification humaine. Ce cas soulève également la responsabilité des acteurs privés qui, comme Deloitte, conseillent des entreprises et organismes publics sur l’implémentation de ces technologies complexes.

To read Personal Computer : Découvrez « Claude Cowork » de Perplexity, désormais ouvert à tous

Les limitations actuelles des modèles génératifs

En dépit de leurs performances, les modèles génératifs, tels que l’Azure OpenAI GPT-4o, continuent de présenter des limites, notamment en termes de fiabilité des informations produites. Cet événement met en exergue la nécessité d’une supervision humaine constante pour éviter de telles erreurs dans des documents de haute importance.

Rate this article

InterCoaching is an independent media. Support us by adding us to your Google News favorites:

Share your opinion