Jensen Huang dit qu'on a atteint l'AGI — vraiment ?
Le CEO de Nvidia a déclaré 'je pense qu'on a atteint l'AGI' sur le podcast Lex Fridman. Une bombe rhétorique qui révèle surtout une bataille de définitions au cœur du secteur IA.
La semaine dernière, Jensen Huang a lâché une bombe sur le podcast Lex Fridman : “Je pense qu’on a atteint l’AGI.” En trois secondes, le CEO de Nvidia — l’entreprise dont les GPUs font littéralement tourner l’IA mondiale — venait de provoquer une déflagration dans tout le secteur.
Sauf que… ce n’est pas vraiment ce qu’il a dit. Ou plutôt, c’est exactement ce qu’il a dit, mais ça ne veut rien dire. Et c’est précisément là que ça devient intéressant.
Ce qui s’est passé : la déclaration et son contexte
C’était le 24 mars dernier, sur le podcast de Lex Fridman. L’épisode #494 avec Jensen Huang, CEO de Nvidia. La valeur boursière de l’entreprise ? Environ 4 000 milliards de dollars. L’homme qui a transformé une startup de cartes graphiques pour gamers en moteur de la révolution IA mondiale.
Lex Fridman lui demande simplement : “Quand pensez-vous qu’on atteindra l’AGI ?” En posant la question, Fridman définit lui-même le terme : une IA capable de “faire ton boulot”, c’est-à-dire créer, faire croître et gérer une startup tech valorisée à plus d’un milliard de dollars.
La réponse de Jensen Huang : “Je pense que c’est maintenant. Je pense qu’on a atteint l’AGI.”
Fridman répond, amusé : “Tu vas exciter beaucoup de monde avec ça.” Huang mentionne alors l’essor des agents IA autonomes, les milliers d’utilisateurs qui pilotent des assistants IA pour des tâches complexes… avant de légèrement nuancer en disant que les probabilités qu’un de ces agents construise le prochain Nvidia restent à zéro.
Le tout s’est immédiatement retrouvé sur X, Reddit, Hacker News. Les réactions ont oscillé entre enthousiasme naïf et scepticisme acéré.
Le problème : “AGI” ne veut plus rien dire
Pour comprendre pourquoi cette déclaration est à la fois explosive et vide, il faut revenir sur ce que signifie réellement “AGI” — Artificial General Intelligence, Intelligence Artificielle Générale.
Le terme a été popularisé en 1997 par le chercheur Mark Gubrud, qui le définissait comme “des systèmes IA rivaux ou surpassant le cerveau humain en complexité et en vitesse.” Depuis, chaque acteur du secteur y a mis sa propre définition, et les choses ont considérablement dérivé.
Voici l’état du terrain aujourd’hui :
- OpenAI (Sam Altman) a déclaré en août 2025 que l’AGI est “un terme pas vraiment utile”
- Anthropic (Dario Amodei) dit publiquement qu’il “n’aime pas le terme AGI” et le considère comme “un terme marketing”
- Google (Jeff Dean) dit qu’il “évite les conversations sur l’AGI”
- Microsoft (Satya Nadella) juge l’AGI “du benchmark hacking auto-proclamé”
Les mêmes entreprises qui se battaient pour atteindre l’AGI il y a deux ans fuient désormais le terme. Pas par modestie — par intérêt stratégique. Car derrière les slogans, il y a des clauses contractuelles avec des milliards en jeu.
La guerre des mots : quand le vocabulaire vaut des milliards
En 2019, OpenAI et Microsoft ont signé un contrat historique avec une “clause AGI”. L’accord donnait à Microsoft le droit d’utiliser la technologie d’OpenAI jusqu’à ce que cette dernière atteigne l’AGI. Problème : personne n’avait défini précisément ce que ça signifiait.
Lors du renouvellement du contrat en octobre 2025, les termes ont été modifiés : si OpenAI déclare avoir atteint l’AGI, un panel d’experts indépendants devra valider cette déclaration. Autrement dit : celui qui définit “l’AGI” contrôle littéralement des dizaines de milliards de dollars d’accords commerciaux.
Pas étonnant que chaque PDG préfère inventer sa propre terminologie :
| Entreprise | Leur terme préféré |
|---|---|
| Meta | ”Intelligence personnelle superintelligente” |
| Microsoft | ”Intelligence humaniste superintelligente” |
| Amazon | ”Intelligence générale utile” |
| Anthropic | ”IA puissante” |
Quand les mots eux-mêmes sont des actifs financiers, la précision devient un luxe qu’on ne peut pas se permettre.
Alors, où en est-on vraiment avec l’intelligence artificielle en 2026 ?
Mettons de côté les déclarations et regardons les faits concrets.
Ce que l’IA sait faire aujourd’hui, en 2026 :
- Rédiger du code fonctionnel dans des dizaines de langages, détecter ses propres bugs, proposer des refactorings
- Synthétiser des dizaines de documents juridiques ou médicaux en quelques secondes
- Générer des images, vidéos, musiques de qualité professionnelle
- Piloter des agents autonomes capables d’exécuter des workflows complexes (réservation, recherche, analyse)
- Résoudre des problèmes mathématiques de niveau olympiade
- Lire et résumer des papers scientifiques, proposer des hypothèses de recherche
Ce que l’IA ne sait toujours pas faire :
- Comprendre le contexte sans être guidée (elle hallucine dès que la tâche sort des données d’entraînement)
- Avoir une vraie conscience de ses erreurs (elle “sait” qu’elle peut se tromper, mais ne ressent pas la confusion)
- Apprendre en continu, en temps réel, de ses expériences sans fine-tuning
- Transférer ses compétences entre domaines sans réentraînement
- Prendre des initiatives à long terme sans supervision humaine
Les benchmarks progressent spectaculairement. Mais progresser sur un benchmark et être “généralement intelligent” sont deux choses radicalement différentes.
La vraie question : pourquoi Jensen Huang dit ça maintenant ?
Jensen Huang n’est pas naïf. C’est un ingénieur brillant et un stratège redoutable. Quand il dit qu’on a atteint l’AGI, ce n’est pas une erreur de vocabulaire — c’est un message.
Premier message : les GPU Nvidia sont au cœur de ce “moment AGI”. Si on a atteint l’AGI, c’est en grande partie grâce aux H100, B200 et prochainement aux Rubin de Nvidia. La déclaration est aussi une publicité implicite pour le hardware.
Deuxième message : la compétition se joue maintenant. En disant que l’AGI est “maintenant”, Huang envoie un signal aux entreprises qui hésiteraient encore à massiver leurs investissements en IA : vous êtes déjà en retard. C’est de l’urgence manufacturée, mais efficace.
Troisième message : il redéfinit le terme à son avantage. La définition que Fridman propose — “une IA capable de démarrer une startup milliardaire” — est bien plus restrictive que la définition académique. C’est une définition qu’on peut atteindre avec les agents IA actuels, à condition d’accepter beaucoup de supervision humaine.
Huang le reconnaît lui-même en nuançant : “La probabilité qu’un de ces agents construise le prochain Nvidia est zéro.” Ce n’est donc pas vraiment l’AGI au sens où on l’entendait.
Ce que ça change pour toi, concrètement
Si on accepte la définition pragmatique (une IA capable d’automatiser des tâches complexes qui nécessitaient avant un expert humain), alors oui, on y est. Et les implications sont déjà réelles :
Pour les développeurs : les outils IA (Claude Code, Cursor, Copilot) transforment déjà la façon de coder. Pas de remplacement, mais une amplification massive de la productivité. Un développeur avec les bons outils IA fait le travail de deux ou trois.
Pour les entrepreneurs : les agents IA permettent d’automatiser les workflows qui nécessitaient des prestataires ou des employés (support client, veille, rédaction, analyse de données). Une équipe de 3 personnes peut aujourd’hui opérer comme une équipe de 10.
Pour les créatifs : la barre de qualité pour le contenu généré par IA a explosé. Images, vidéos, textes de niveau professionnel sont accessibles à quiconque sait prompter correctement.
Pour les managers : la question n’est plus “est-ce que l’IA va impacter mon métier ?” mais “comment j’intègre ces outils dans mon équipe pour rester compétitif ?”
Ce qu’il faut surveiller en 2026
Plusieurs signaux méritent attention dans les mois à venir :
-
Apple × Google Gemini : en janvier 2026, Apple a officiellement choisi Gemini pour alimenter la prochaine version personnalisée de Siri. Ce partenariat signifie que l’IA la plus avancée de Google va se retrouver dans les mains de milliards d’utilisateurs iPhone. La compétition entre assistants IA grand public va s’intensifier.
-
TurboQuant (Google Research) : un algorithme de compression vectorielle présenté à ICLR 2026 qui réduit la mémoire des LLMs d’un facteur 6x sans perte de précision. Si ce type de technique se généralise, des modèles actuellement impossibles à faire tourner sur des appareils personnels pourraient devenir accessibles.
-
OpenAI × Helion : Sam Altman serait en “négociations avancées” pour racheter Helion, une startup de fusion nucléaire. L’IA consomme une quantité d’énergie absurde — trouver une source d’énergie quasi-illimitée serait un game-changer absolu.
-
La bataille juridique Anthropic : Anthropic vient de s’opposer en justice au Pentagone qui l’a désignée comme “risque pour la chaîne d’approvisionnement militaire”. L’issue de ce procès va définir jusqu’où les gouvernements peuvent contrôler les labs IA privés.
Ce qu’il faut retenir :
- “AGI” est un terme marketing sans définition consensuelle — quand Jensen Huang dit qu’on l’a atteint, il utilise sa propre définition, pas la définition académique
- L’IA actuelle est bluffante dans son domaine, mais loin d’être “générale” — elle hallucine, ne transfère pas ses compétences, et nécessite toujours de la supervision humaine
- Les déclarations des PDGs sont des signaux stratégiques — comprendre qui dit quoi et pourquoi est aussi important que ce qui est dit
- Les implications concrètes sont déjà là — que tu sois dev, entrepreneur ou créatif, les outils IA 2026 transforment déjà les façons de travailler, AGI ou pas
La vérité ? On n’est probablement pas à l’AGI au sens où Turing ou McCarthy l’auraient défini. Mais on est à un point d’inflexion réel, où l’IA cesse d’être un gadget pour devenir un outil de travail central. Et c’est peut-être plus important que n’importe quelle déclaration de Jensen Huang.