7 avril 2026 : le jour où l'IA s'est fracturée en deux
Le même jour, Anthropic verrouille Mythos et Zhipu libère GLM-5.1 sous MIT. L'inversion géopolitique USA-Chine redéfinit le débat IA open source vs propriétaire.
1490 points sur Hacker News. C’est le score qu’a atteint l’annonce de Project Glasswing le 7 avril 2026 — le jour où Anthropic a officiellement dit au monde : « Notre modèle est trop dangereux pour être ouvert. » Quatre posts plus bas dans le classement, avec 609 points : Zhipu AI publiait GLM-5.1, un modèle de 744 milliards de paramètres, sous licence MIT. Gratuit. Ouvert. Pour tout le monde.
Deux annonces. Le même jour. Deux visions de l’IA radicalement opposées. Et un retournement géopolitique que personne n’avait vraiment anticipé : les États-Unis ferment, la Chine ouvre.
Le même jour, deux mondes
Le 7 avril 2026 restera peut-être dans l’histoire de l’IA comme un point de bascule. Pas à cause d’une seule annonce — mais parce que deux visions irréconciliables se sont cristallisées simultanément.
D’un côté, Anthropic lance Project Glasswing : une coalition réunissant AWS, Apple, Google, Microsoft, NVIDIA, Cisco, CrowdStrike, JPMorganChase et la Linux Foundation. Leur mission : utiliser Claude Mythos Preview — un modèle non publié — pour scanner et sécuriser les logiciels critiques du monde entier. Anthropic engage 100 millions de dollars en crédits d’utilisation et 4 millions en dons directs aux organisations open source de cybersécurité. Mais Mythos lui-même ? Accès restreint à une cinquantaine d’organisations triées sur le volet. Pas d’API publique. Pas de poids ouverts.
De l’autre, Zhipu AI (智谱AI) — startup chinoise fondée par des chercheurs de l’université Tsinghua — publie GLM-5.1 sur Hugging Face. 744 milliards de paramètres, 40 milliards actifs (architecture sparse). Licence MIT. Tu peux le télécharger maintenant, le déployer sur tes serveurs, le modifier, le commercialiser. Zéro restriction.
La coïncidence calendaire n’est probablement pas calculée. Mais elle raconte quelque chose de profond sur l’état de l’IA en 2026.
Claude Mythos : quand un labo dit « notre IA est trop dangereuse »
On avait déjà couvert la fuite accidentelle de Mythos fin mars — un brouillon de blog trouvé dans un bucket public qui révélait l’existence du modèle. Le 7 avril, Anthropic a officialisé les choses, et les chiffres sont vertigineux.
Ce que Mythos a trouvé en quelques semaines :
- Des milliers de vulnérabilités zero-day dans tous les systèmes d’exploitation majeurs et tous les navigateurs web principaux
- Une faille de 27 ans dans OpenBSD — l’un des OS les plus sécurisés au monde — permettant de crasher une machine à distance simplement en s’y connectant
- Une faille de 16 ans dans FFmpeg, dans une ligne de code que les outils de test automatisé avaient exécutée 5 millions de fois sans jamais la détecter
- Un enchaînement autonome de plusieurs vulnérabilités dans le noyau Linux pour passer d’un accès utilisateur standard au contrôle total de la machine
Sur le benchmark CyberGym, Mythos Preview atteint 83,1 % en reproduction de vulnérabilités, contre 66,6 % pour Claude Opus 4.6. Le tout, précise Anthropic, « entièrement de manière autonome, sans aucun guidage humain. »
Greg Kroah-Hartman, le mainteneur stable du noyau Linux, avait déjà tiré la sonnette d’alarme fin mars : « Quelque chose a changé il y a un mois. Maintenant, nous recevons de vrais rapports de sécurité générés par IA. Tous les projets open source voient la même chose. »
La décision d’Anthropic de verrouiller Mythos est logique — et c’est là que la fracture devient intéressante. L’argument est : ce modèle est trop bon pour trouver des failles. Le mettre dans la nature, c’est armer n’importe qui. La seule option responsable est de le garder sous contrôle, accessible uniquement aux défenseurs.
GLM-5.1 : le modèle open source qui veut battre les géants
Pendant qu’Anthropic construisait son coffre-fort, Zhipu AI construisait le contraire.
GLM-5.1 n’est pas juste un modèle open source de plus. C’est un modèle qui vise explicitement la frontière — et qui s’en approche sérieusement.
Les chiffres
| Spécification | GLM-5.1 |
|---|---|
| Paramètres totaux | 744 milliards |
| Paramètres actifs | 40 milliards (MoE sparse) |
| Données d’entraînement | 28,5 trillions de tokens |
| Licence | MIT |
| Disponibilité | Hugging Face, ModelScope |
| Déploiement | vLLM, SGLang, xLLM, Ktransformers |
Sur SWE-Bench Pro, le benchmark qui mesure la capacité d’un modèle à résoudre des bugs réels dans des projets open source, GLM-5.1 atteint des performances « state-of-the-art » pour un modèle ouvert. Sur Terminal-Bench 2.0 (tâches terminal en conditions réelles), il domine. Sur Vending Bench 2 — un benchmark fascinant où le modèle doit gérer un business de distributeurs automatiques sur un an simulé — GLM-5 termine avec un solde de 4 432 $, approchant Claude Opus 4.5.
Le vrai saut, selon l’équipe Zhipu, n’est pas dans la performance one-shot mais dans l’endurance agentique. GLM-5.1 est conçu pour rester productif sur des sessions longues — des centaines de tours d’itération, des milliers d’appels d’outils. Là où les modèles précédents « épuisent leur répertoire » et plafonnent, GLM-5.1 continue à progresser.
Ce qu’en dit la communauté
Sur Hacker News, les avis sont polarisés — ce qui est souvent le signe que quelque chose de réel se passe. Un développeur européen travaillant sur une plateforme B2B2C complexe en F# affirme que « GLM-5 est, à ce stade, bien plus capable que Claude et Codex pour le travail backend complexe, la planification de features, et les tâches longues. » D’autres rapportent des performances décevantes sur du TypeScript basique.
Le consensus qui émerge : GLM-5.1 brille sur les tâches complexes et longues, mais souffre de « context rot » (dégradation avec le contexte) et d’un surentraînement sur des toolsets standardisés. C’est un modèle qui excelle quand il peut itérer — pas forcément quand il doit être bon du premier coup.
L’infrastructure d’inférence de Zhipu (basée en partie sur des puces Huawei) pose aussi des problèmes de latence — mais des fournisseurs tiers comme Friendli, Fireworks et Venice offrent déjà un déploiement rapide, et une intégration Bedrock est en cours.
L’inversion géopolitique : quand la Chine devient le champion de l’ouverture
C’est le vrai angle de cette histoire — celui qu’on n’avait pas vu venir.
Pendant des décennies, le narratif géopolitique de la tech était simple : les États-Unis innovent et ouvrent, la Chine copie et ferme. La Silicon Valley était synonyme d’open source — Linux, Android, TensorFlow, PyTorch. La Chine était le pays du Grand Firewall, de la censure, du contrôle.
En avril 2026, ce narratif s’est inversé.
Côté américain : les modèles les plus puissants sont de plus en plus verrouillés. Mythos n’est pas un cas isolé. OpenAI a levé 122 milliards en restant fermement propriétaire. Même Meta, longtemps le porte-drapeau de l’open weight avec Llama, montre des signes de resserrement sur ses modèles les plus avancés.
Côté chinois : Zhipu publie GLM-5.1 sous MIT. DeepSeek a bouleversé le marché début 2025 avec ses modèles ouverts. Alibaba a Qwen. Même si la Chine a un historique de censure dans ses modèles (les modèles chinois ont des garde-fous stricts sur les sujets politiques sensibles), le code, l’architecture et les poids sont ouverts.
Pourquoi cette inversion ? Trois facteurs se combinent :
-
La stratégie du rattrapage. L’open source est l’arme des challengers. Quand tu n’as pas encore la position dominante, ouvrir tes modèles crée un écosystème, attire les développeurs, et force l’adoption. La Chine joue le même coup que Google avec Android face à l’iPhone.
-
La pression réglementaire américaine. Les labos US font face à des pressions croissantes — de Washington, des conseils d’administration, de l’opinion publique — pour « être responsables ». Le résultat : des modèles plus puissants mais moins accessibles. Mythos en est l’exemple parfait.
-
La course aux puces. Les restrictions américaines sur les exportations de GPU vers la Chine ont poussé les labos chinois à optimiser furieusement — et à partager leurs avancées pour accélérer l’écosystème. L’intégration par GLM-5 de DeepSeek Sparse Attention (DSA), un mécanisme d’attention développé par un concurrent chinois, illustre cette dynamique de coopération.
Open source dangereux ou sécurité par l’obscurité ?
Le débat n’est pas nouveau, mais le 7 avril lui donne une dimension concrète inédite.
L’argument d’Anthropic est solide : si Mythos peut trouver des vulnérabilités que 27 ans de revue humaine ont ratées, le rendre public reviendrait à distribuer une arme. Le coût de découverte des failles passe de « des mois de travail d’expert » à « quelques heures de compute ». L’asymétrie attaquant/défenseur s’effondrerait.
L’argument de l’open source est tout aussi solide : la sécurité par l’obscurité n’a jamais fonctionné. Si Anthropic peut entraîner Mythos, d’autres le feront — la Chine, la Russie, des acteurs privés. La question n’est pas si ces capacités existeront dans la nature, mais quand. Et dans ce cas, le seul avantage durable est de donner aux défenseurs les mêmes outils.
Greg Kroah-Hartman le confirme : les vrais rapports de vulnérabilités générés par IA arrivent déjà de partout. Mythos n’est pas le seul. Il est le meilleur — pour l’instant.
Le problème de la position d’Anthropic, c’est qu’elle crée une nouvelle asymétrie : 50 organisations ont accès à un outil de cybersécurité révolutionnaire. Les millions d’autres — startups, PME, développeurs indépendants, pays en développement — n’ont rien. C’est la même logique que les brevets pharmaceutiques : protéger la technologie protège aussi les inégalités d’accès.
Le problème de la position open source, c’est qu’elle est irréversible : une fois les poids publiés, impossible de les « dé-publier ». Si GLM-5.1 — ou un futur GLM-6 — atteint le niveau de Mythos en découverte de vulnérabilités, on ne pourra pas revenir en arrière.
Aucune des deux positions n’est fausse. C’est ce qui rend la fracture si profonde.
Ce que ça change pour toi
Si tu es développeur
GLM-5.1 est testable maintenant. Voici comment en 5 minutes :
- Via l’API Zhipu : docs.z.ai/guides/llm/glm-5.1
- En local avec vLLM (besoin de 8 GPU A100/H100) :
docker pull vllm/vllm-openai:glm51 vllm serve zai-org/GLM-5.1-FP8 \ --tensor-parallel-size 8 \ --gpu-memory-utilization 0.85 - Via des fournisseurs tiers : Friendli, Fireworks, Venice, GMICloud — déjà disponible, avec une future intégration AWS Bedrock
Pour quels cas d’usage ? Les retours communautaires pointent vers les tâches backend complexes, la planification de features et les sessions agentiques longues. Pour du frontend ou du scripting rapide, Claude Opus ou Codex restent probablement plus fiables aujourd’hui.
Si tu es en entreprise
La fracture Mythos/GLM-5.1 a des implications stratégiques directes :
- Sécurité : si tu développes des logiciels critiques, surveille le programme Project Glasswing. Anthropic prévoit d’élargir l’accès. En attendant, les outils de scan existants (Semgrep, CodeQL) intègrent déjà des modèles IA — la tendance va s’accélérer.
- Souveraineté : un modèle MIT comme GLM-5.1, c’est zéro dépendance à un fournisseur. Tu peux l’héberger dans ton infra, le fine-tuner sur tes données, sans crainte qu’une mise à jour d’API casse ton workflow. C’est l’argument massue face aux modèles propriétaires.
- Risque réputationnel : utiliser un modèle chinois dans certains secteurs (défense, gouvernement) reste sensible. C’est un facteur non technique mais réel.
Si tu observes le marché IA
La tendance est claire : les modèles ouverts rattrapent la frontière, mais la frontière se redéfinit. En 2024, l’avance des modèles propriétaires se mesurait sur les benchmarks classiques. En 2026, elle se mesure sur des capacités spécifiques (cybersécurité, raisonnement multi-étapes) que les benchmarks publics ne capturent pas forcément.
Le vrai moat n’est plus le modèle — c’est l’infrastructure, les données, et la confiance.
Ce qu’il faut retenir :
- 7 avril 2026 — Anthropic verrouille Claude Mythos (trop puissant en cybersécurité, accès restreint à ~50 organisations via Project Glasswing), pendant que Zhipu libère GLM-5.1 (744B params, MIT, performances near-frontier)
- L’inversion géopolitique est réelle — les labos US se ferment sous pression réglementaire et sécuritaire, les labos chinois ouvrent pour conquérir l’écosystème mondial. Les rôles historiques sont inversés
- Aucune des deux positions n’est fausse — la sécurité justifie le verrouillage, mais l’ouverture est le seul avantage durable. La vraie question : qui décide ce qui est « trop dangereux » ?
- Le modèle n’est plus le moat — à terme, les modèles open source atteindront la frontière. Le pouvoir se déplace vers l’infra, les données, et la gouvernance
Questions fréquentes
GLM-5.1 est-il vraiment comparable à Claude Opus ?
Sur les benchmarks agentiques (SWE-Bench Pro, Terminal-Bench 2.0), GLM-5.1 approche les performances de Claude Opus 4.5, surtout sur les tâches longues. Sur les tâches one-shot et le coding frontend, l’écart reste significatif. C’est un modèle à tester sur ton cas d’usage spécifique.
Peut-on utiliser Mythos via l’API Anthropic ?
Non. Claude Mythos Preview est réservé aux partenaires de Project Glasswing et à un groupe élargi d’environ 50 organisations. Anthropic n’a pas annoncé de date pour un accès public.
Un modèle chinois open source, c’est sûr ?
La licence MIT est claire : tu peux auditer le code, les poids, l’architecture. Le risque n’est pas technique — c’est la même sécurité qu’un modèle américain open source. Le risque est politique : certains secteurs régulés peuvent interdire l’utilisation de modèles d’origine chinoise, indépendamment de la licence.
