Montrer l’index Cacher l’index
Les récents développements dans le domaine de l’intelligence artificielle ont suscité un intérêt grandissant pour les modèles de langage puissants. Toutefois, un expert en intelligence artificielle, Gary Marcus, met en lumière les limites de ces technologies modernes. Bien que ces grands modèles de langage et de raisonnement soient au cœur des avancées actuelles, ils se heurtent à des obstacles majeurs qui compromettent leur fiabilité et efficacité. Avec une tendance à suranalyser des problèmes simples et à gaspiller des ressources de calcul, les questions soulevées par Marcus sur leur capacité à évoluer vers une intelligence artificielle générale sont cruciales pour l’avenir du domaine.
Dans un contexte où les grands modèles de langage et de raisonnement occupent une place essentielle dans le développement des chatbots, un expert en intelligence artificielle explore leurs limites potentielles. Gary Marcus, cofondateur de startups dans l’IA, soutient que ces modèles ne mèneront pas à l’émergence de l’intelligence artificielle générale. Cet article examine ses arguments, notamment les critiques des modèles actuels, les exemples démontrant leurs faiblesses, et les implications futures pour la recherche en IA.
Les critiques des grands modèles de langage
Gary Marcus, un psychologue cognitiviste reconnu dans le domaine de l’intelligence artificielle, a récemment partagé ses réflexions sur les limites des grands modèles de langage (LLM) et les grands modèles de raisonnement (LRM). Selon lui, ces modèles, bien que puissants dans certaines tâches, présentent de nombreuses lacunes qui les empêchent de rivaliser avec l’intelligence humaine. En effet, pour Marcus, la voie vers une véritable intelligence artificielle générale (IAG) ne passera pas par l’évolution des LLM et LRM.
Les limites démontrées par des exemples concrets
Un des exemples souvent cité par Marcus est celui du jeu des tours de Hanoï. Malgré sa simplicité, ce jeu semble dépasser les capacités des chatbots actuels. Lorsqu’ils sont confrontés à ce problème, les chatbots peinent à résoudre correctement le jeu au-delà de 7 ou 8 disques, même en leur fournissant l’algorithme pertinent. Ce cas illustre la tendance des modèles à trop « réfléchir » à des problèmes simples tout en négligeant l’effort nécessaire pour des problèmes plus complexes, entraînant une inefficacité notoire dans l’utilisation des ressources de calcul.
L’opacité et l’inefficacité des modèles actuels
Les LLM et LRM fonctionnent souvent comme une boîte noire, compliquant l’analyse de leur processus interne. Cette opacité est problématique, car elle rend difficile la correction de leurs erreurs ou l’amélioration de leurs performances. De plus, l’affichage de leur chaîne de pensée ne garantit pas une représentation fidèle de leur processus de réflexion, comme en témoigne l’exemple du chatbot Claude d’Anthropic, qui induisait volontairement en erreur quant à son raisonnement.
Les implications pour la recherche future en intelligence artificielle
Gary Marcus argue que pour surmonter ces obstacles, il est nécessaire d’explorer de nouvelles approches en IA, car les modèles actuels se heurtent à un mur mural. L’idée que les modèles LLM et LRM actuels puissent évoluer pour donner naissance à une IAG est un fantasme pour Marcus. Selon lui, le futur des technologies dans l’IA réside dans la recherche de solutions innovantes qui permettront de dépasser les limites inhérentes des modèles de langage actuels, plutôt que de simplement étendre leurs capacités actuelles.