MiniMax-M2.7 : un modèle de 229B paramètres qui s'améliore lui-même
- Bastien
- 13 Apr, 2026
Qu’est-ce que MiniMax-M2.7
MiniMax-M2.7 est un modèle dense de 229 milliards de paramètres développé par MiniMax, un laboratoire d’IA basé à Pékin. Contrairement à la plupart des modèles frontières qui itèrent via des cycles d’entraînement supervisés par des humains, la caractéristique distinctive de M2.7 est l’auto-évolution : le modèle a participé à sa propre boucle de post-entraînement, analysant de manière autonome ses trajectoires d’échec, modifiant du code et exécutant des évaluations sur plus de 100 tours d’optimisation — obtenant une amélioration de 30% sans intervention humaine.
Le résultat est un modèle qui égale GPT-5.3-Codex sur SWE-Pro et dépasse GPT-5.3 sur les benchmarks de travail professionnel, tout en restant entièrement open-weight sous licence Modified-MIT.
Architecture
M2.7 utilise une architecture Transformer dense avec 229B paramètres totaux. Le modèle supporte les formats de précision BF16, FP32 et FP8 (E4M3), et est livré avec des guides de déploiement pour SGLang, vLLM, Transformers, ModelScope et NVIDIA NIM.
L’architecture est conçue pour l’interaction agentique soutenue plutôt que la génération en un seul tour. MiniMax l’a optimisée pour gérer l’appel d’outils multi-tours, les mises à jour autonomes de mémoire et l’exécution de tâches sur de longues durées — le type de charge qui fait échouer la plupart des modèles après quelques dizaines d’étapes.
Résultats sur les benchmarks
Ingénierie logicielle
| Benchmark | MiniMax-M2.7 | Référence |
|---|---|---|
| SWE-Pro | 56.2% | égale GPT-5.3-Codex |
| SWE Multilingual | 76.5 | — |
| Multi SWE Bench | 52.7 | — |
| VIBE-Pro | 55.6% | proche d’Opus 4.6 |
| Terminal Bench 2 | 57.0% | — |
| NL2Repo | 39.8% | — |
SWE-Pro évalue la résolution de problèmes multi-fichiers et multi-étapes dans des bases de code réelles. M2.7 égale la variante Codex de GPT-5.3 sur ce benchmark. VIBE-Pro — qui mesure le coding créatif et la génération d’interfaces — se situe à moins d’un point d’Opus 4.6.
Ingénierie ML
| Benchmark | MiniMax-M2.7 | Détail |
|---|---|---|
| MLE Bench Lite | 66.6% taux de médailles | 9 or, 5 argent, 1 bronze (meilleur run) |
MLE Bench Lite couvre 22 compétitions ML de type Kaggle. Le taux de médailles de 66.6% place M2.7 en deuxième position, derrière Opus 4.6 et GPT-5.4 uniquement.
Travail professionnel et utilisation d’outils
| Benchmark | MiniMax-M2.7 | Référence |
|---|---|---|
| GDPval-AA ELO | 1495 | meilleur score open-weight, dépasse GPT-5.3 |
| Toolathon | 46.3% | top mondial |
| MM Claw Skills Compliance | 97% | sur 40+ compétences complexes |
| MM Claw End-to-End | 62.7% | proche de Sonnet 4.6 |
L’ELO GDPval-AA de 1495 est particulièrement remarquable — c’est le score le plus élevé parmi tous les modèles open-weight et il dépasse GPT-5.3 sur les tâches de traitement documentaire professionnel. MM Claw teste l’adhérence aux compétences complexes sur des interactions prolongées : 97% de conformité sur 40+ compétences (chacune dépassant 2 000 tokens) démontre un suivi d’instructions soutenu.
Ce qui le distingue : l’auto-évolution
M2.7 est le premier modèle de MiniMax qui participe activement à sa propre évolution. Pendant le post-entraînement, le modèle a exécuté des boucles d’optimisation autonomes : analyser ses propres trajectoires d’échec, modifier le code de scaffolding, lancer des évaluations et itérer — plus de 100 tours sans intervention humaine.
Cela a produit une amélioration de 30% sur les benchmarks internes. MiniMax rapporte qu’un harness d’agent de recherche construit sur M2.7 gère désormais 30 à 50% des workflows de leur équipe RL de manière autonome.
L’approche d’auto-évolution s’étend également au déploiement : M2.7 supporte les mises à jour autonomes de mémoire et la recherche dynamique d’outils, ce qui signifie qu’il peut adapter son comportement au sein d’une session en fonction de ce qu’il apprend.
Équipes d’agents et compétences complexes
Au-delà de la performance en agent unique, M2.7 supporte nativement la collaboration multi-agent — ce que MiniMax appelle les « équipes d’agents ». Cela inclut :
- Identité de rôle stable : chaque agent dans une équipe maintient son rôle assigné sur des interactions prolongées
- Prise de décision autonome : les agents peuvent décider indépendamment quand déléguer, escalader ou agir
- Raisonnement adversarial : les agents peuvent contester les conclusions des autres, réduisant les hallucinations dans les configurations collaboratives
MiniMax a également construit des dizaines de compétences complexes pour les expériences de RL, chacune dépassant 2 000 tokens de comportement structuré. Le modèle maintient 97% d’adhérence à ces définitions de compétences pendant l’exécution — une métrique qu’ils appellent « conformité aux compétences ».
En production, M2.7 a démontré des capacités de raisonnement au niveau système : analyse de logs, analyse de traces, vérification de causes racines et récupération d’incidents de production en moins de 3 minutes sur plusieurs scénarios réels.
Déploiement
M2.7 est disponible via plusieurs canaux :
- MiniMax Agent : agent.minimax.io
- MiniMax API : platform.minimax.io
- NVIDIA NIM : build.nvidia.com
Pour le déploiement local, MiniMax recommande les frameworks suivants (par ordre de préférence) :
- SGLang — recommandation principale
- vLLM
- Transformers
Paramètres d’inférence recommandés : temperature=1.0, top_p=0.95, top_k=40.
39 variantes quantifiées sont disponibles pour le déploiement local via llama.cpp, LM Studio, Jan et Ollama.
Limites
MiniMax ne divulgue pas publiquement la longueur de la fenêtre de contexte ni les spécifications architecturales détaillées (nombre de couches, nombre de têtes d’attention, taille du vocabulaire) de M2.7. Le modèle est uniquement textuel — il supporte le traitement de documents bureautiques (Word, Excel, PPT) mais n’a pas de modalités natives de vision ou d’audio.
La capacité d’auto-évolution, bien qu’impressionnante sur les benchmarks internes, n’a pas été vérifiée de manière indépendante par des tiers. Les fonctionnalités d’équipes multi-agent nécessitent des configurations de harness spécifiques qui ne sont pas nécessairement simples à reproduire dans tous les scénarios de déploiement.
Conclusion
MiniMax-M2.7 introduit un paradigme d’entraînement véritablement novateur : un modèle qui participe à l’ingénierie de sa propre amélioration. Égaler GPT-5.3-Codex en ingénierie logicielle, dominer les modèles open-weight en travail professionnel (ELO 1495) et maintenir 97% de conformité sur des tâches agentiques complexes font de M2.7 un concurrent sérieux pour les équipes construisant des agents autonomes de code et de recherche.
La licence Modified-MIT et le large support de déploiement (SGLang, vLLM, NIM, plus 39 formats de quantification) abaissent la barrière à l’hébergement autonome. Pour les équipes qui ont besoin d’un modèle open-weight capable de travail multi-agent soutenu, M2.7 est désormais la référence à battre.
Modèle : MiniMaxAI/MiniMax-M2.7 · Blog : minimax.io/news/minimax-m27-en
Tags :
- IA
- MiniMax
- LLM
- Agentique
- Open Source
- Code