Ce n’est rien de le dire, mais nous vivons une ère incroyable. Chaque mois, l’intelligence artificielle générative nous étonne par ses capacités. Malheureusement, les LLM actuelles sont encore limitées dans leur autonomie. Principalement parce qu’ils ne peuvent pas apprendre par eux-mêmes ou de leurs conversations avec les utilisateurs. Et cela reste une très grande limite qui pousse Yann LeCunn, responsable de l’IA chez Meta, à dire que ces systèmes ne nous conduiront jamais à la superintelligence et qu’ils n’atteindront jamais l’intelligence humaine. Contrairement à l’humain qui apprend et se développe aux contacts des autres humains et des autres êtres, les LLM actuels n’apprennent rien et sont incapables de construire un contexte. En conséquence, les promesses faites par les boss de l’IA sont trop belles pour être vraies.
Sommaire :
Les discours enthousiastes sur la superintelligence
Depuis l’avènement de l’intelligence artificielle générative, les discours enthousiastes sur l’AGI sont nombreux. Plusieurs prédictions ont été faites à son sujet et nombreuses sont déjà tombées à l’eau. Par exemple, Sam Altman disait en 2023 qu’on atteindrait assurément l’AGI en 2027. En 2024, le patron de xAI, Elon Musk, misait sur 2025. « je pense que l’AGI pourrait arriver d’ici 2025. Peut-être même plus tôt », a-t-il avancé. Eh bien, 2025 s’en va à son terme et nous attendons toujours les prémices de cette superintelligence. Dans la même veine que ces deux, mais avec un peu plus de marges, le PDG de Google DeepMind a affirmé en mai 2024 : « je pense que nous pourrions voir l’AGI dans les prochaines années, peut-être d’ici 2030 ».
D’un côté, nous avons de grands enthousiastes ; de l’autre, nous avons les prudents qui semblent mesurés dans ce qu’ils disent et les réalistes. Dans cette dernière catégorie se trouvent Satya Nadella, PDG de Microsoft, et Yann LeCunn, responsable de l’IA chez Meta. Celui qui a reçu le prix Turing en 2019 est clair : l’AGI n’est pas près d’arriver. Plus radical encore, il affirme :
« les modèles d’IA actuels sont très loin de l’AGI. Ils ne comprennent pas, ne raisonnent pas, ne planifient pas ».
Et ce n’est que quelques limites des LLM actuels.
VOIR AUSSI : IA et raisonnement humain : l’o3 d’OpenAI atteint un nouveau sommet sur l’ARC-AGI
L’AGI, un concept encore flou
Alors que tous les chefs d’entreprises IA parlent de l’AGI, il faut avouer que le concept lui-même reste encore nébuleux. Dans l’industrie, on ignore encore véritablement ce qui rentre ou non dans ce concept et comment l’évaluer réellement. À chaque fois qu’on en parle, il semble s’agir d’un niveau extrême de la technologie, le summum de la science qu’on doit encore atteindre, mais qui reste loin et peut-être qu’on n’atteindra jamais. Et sur ce point, chaque entreprise à sa définition.
Dans un document publié en avril 2025, Googe DeepMind définit l’AGI en ces termes : « un système capable d’égaler au moins le 99e percentile des adultes qualifiés dans un large éventail de tâches non physiques, y compris des tâches métacognitives telles que l’apprentissage de nouvelles compétences ».
Du côté d’OpenAI, ce n’est pas dans les raisonnements que l’on évalue l’AGI, mais dans ce qu’elle peut rapporter.
« l’AGI sera atteinte lorsque nous aurons développé un système d’IA capable de générer au moins 100 milliards de dollars de bénéfices »
Peut-on lire dans un rapport divulgué par The Information en décembre 2024. De ce rapport, OpenAI avance que l’AGI tel que les gens le pensent est un objectif inatteignable. En conséquence, l’entreprise est aujourd’hui orientée profit.
Apple, de son côté, reste prudent. L’entreprise que nous voyons publiquement accusée du retard sur ses concurrents s’active bien dans les coulisses. Selon une étude menée, elle met en doute les grands progrès que les avant-gardistes de l’IA générative disent avoir effectués dans le sens de la superintelligence.
Sans verser dans le marketing de l’IA grandement mené par OpenAI, Google ou encore Microsoft et autres entreprises IA, plusieurs experts affirment aujourd’hui qu’il est peu probable que l’AGI soit atteignable en augmentant la puissance de calcul ou la quantité des données ingurgitées par les LLM. Selon une enquête menée en 2025, 76% des experts en IA sont pessimistes au sujet de cet objectif et pensent que les grandes entreprises investissent des milliards dans le vide.
Si l’AGI est réel, ce ne sont pas les LLM actuels qui nous y mèneront
Pour Yann LeCunn, l’AGI est inévitable, mais le co-inventeur du deep learning moderne maintient sa position selon laquelle cette superintelligence n’arrivera pas de sitôt. De même, ce ne sont pas les LLM actuels qui nous y mèneront, car ils sont encore sujets à de nombreuses limites.
Au nombre de ces obstacles, il y a surtout l’apprentissage continu. Au contraire de l’humain qui peut apprendre de ses erreurs et de son contact avec les autres, les LLM actuels restent figés à l’état où ils ont été déployés. Leurs nombreuses interactions ne leur permettent pas de s’améliorer au fil du temps. Il faut toujours une intervention humaine afin qu’ils puissent passer au niveau supérieur.
Avec cette limite, on est encore loin de la prédiction du PDG d’Anthropic, Dario Amodei, qui avançait que l’IA est susceptible d’éliminer la moitié des employés de bureau dans les années à venir. Il est clair que l’IA générative redéfinit les métiers, mais il y aura toujours le besoin d’un humain afin d’apporter la dernière touche pour un usage convenable.
En conclusion, les LLM actuels font de nombreuses belles choses, mais leurs capacités réelles restent exagérées par les dirigeants d’entreprise IA. Et pour le moment, ce ne sont pas eux qui nous conduiront à cette singularité qui fait si peur à tout le monde.
IdealoGeek est un média indépendant. Soutiens-nous en nous ajoutant à tes favoris sur Google Actualités :






