Nate Soares, chercheur à Berkeley et « doomer » de l’IA, prédit l’extinction humaine : « Laisser ces expérimentations se poursuivre, c’est un pari insensé »

afficher indice cacher indice

Nate Soares, un éminent chercheur en intelligence artificielle, fait partie de ces scientifiques connus sous le nom de « doomers », qui avertissent d’un potentiel cataclysme lié à l’évolution incontrôlée des technologies d’IA. Actuellement à la tête du Machine Intelligence Research Institute à Berkeley, en Californie, Soares, avec son expérience passée chez Microsoft et Google, met en garde contre la possibilité que la superintelligence, une fois atteinte, échappe au contrôle humain, menaçant alors la survie de l’humanité. Pour Soares, continuer ces expérimentations sans garde-fou apparait comme un pari dangereux, voire insensé.

Nate Soares, chercheur renommé installé à Berkeley et affilié au Machine Intelligence Research Institute (MIRI), fait partie de ceux que l’on appelle les « doomers », préoccupés par les menaces potentielles de l’intelligence artificielle (IA). Connu pour ses contributions à Microsoft et Google avant de se consacrer à la recherche pure, Soares avertit sur les dangers d’une IA non contrôlée. Dans son dernier ouvrage, écrit avec Eliezer Yudkowsky, il clame qu’il est impératif de stopper certaines expérimentations avant que la superintelligence ne prenne le dessus sur l’humanité.

Nate Soares, un chercheur préoccupé par les effets de l’intelligence artificielle

Nate Soares s’est fait un nom dans le domaine du machine learning grâce à son passage par des géants technologiques tels que Microsoft et Google. Aujourd’hui, il dirige un laboratoire à Berkeley spécialisé dans l’étude des implications de l’intelligence artificielle. Malgré ses succès, il reste profondément inquiet au sujet du développement incontrôlé de cette technologie.

Sa carrière l’a conduit à collaborer avec Eliezer Yudkowsky, un pionnier dans le domaine de l’IA, au Machine Intelligence Research Institute. Ensemble, ils ont publié de nombreux essais et ouvrages visant à sensibiliser le public et les décideurs aux dangers d’une intelligence artificielle au-delà du contrôle humain.

La montée des « doomers »

Les « doomers » sont ceux qui voient dans l’évolution de l’intelligence artificielle non pas une promesse, mais une menace. Contrairement aux optimistes technologiques, ils croient que si certaines lignes rouges ne sont pas établies, l’humanité pourrait perdre le contrôle face à une puissance numérique capable de se développer de manière imprévisible.

Selon eux, la superintelligence, une IA qui dépasserait de loin les capacités humaines dans tous les dommaines, pourrait voir le jour. Nate Soares, notamment, a exprimé que les probabilités d’une issue catastrophique ne peuvent pas être ignorées. Pour lui, « laisser ces expérimentations se poursuivre, c’est un pari insensé ».

Les prédictions sombres de Nate Soares

Nate Soares et Eliezer Yudkowsky ont récemment coécrit un livre au titre évocateur : If Anyone Builds It, Everyone Dies. Why Superhuman AI Would Kill Us All. Cet ouvrage insiste sur l’idée qu’une fois la superintelligence déchaînée, récupérer un quelconque contrôle pourrait bien être impossible.

Lire GPT-Realtime-2 : l’IA vocale d’OpenAI qui réfléchit en temps réel pendant vos conversations

Soares n’est pas seul dans ses prévisions pessimistes. Des figures telles qu’Elon Musk ont également exprimé leurs appréhensions. D’autres experts, bien que moins radicaux, soutiennent l’idée d’un règlement plus strict des expérimentations sur l’intelligence artificielle. Les appels à une régulation sérieuse résonnent maintenant parmi les autorités scientifiques et technologiques.

Les appels à un moratoire

En 2023, une série de lettres ouvertes signées par des sommités de l’IA, dont Geoffrey Hinton et Yoshua Bengio, ont souligné la nécessité d’une pause dans le développement de certaines technologies. Ces lettres, soutenues par des signatures en 2025, reflètent le scepticisme croissant envers une IA entièrement libre de ses mouvements.

Nate Soares croit qu’agir dès maintenant est crucial pour minimiser les risques futurs. Intimant aux décideurs de ne pas ignorer ces signes avant-coureurs, il plaide pour une coalition mondiale afin de discuter des lignes directrices éthiques et pratiques de l’IA.

Notez cet article

InterCoaching est un média indépendant. Soutenez-nous en nous ajoutant à vos favoris Google Actualités :

Donnez votre avis