DeepSeek frappe encore
Le 1er janvier 2026, DeepSeek a publié un nouveau papier de recherche : mHC (Manifold-Constrained Hyper-Connections). C'est une amélioration de l'architecture Transformer qui rend l'entraînement plus stable et moins cher.
Un nouveau modèle flagship arrive probablement d'ici mi-février.
Leur playbook est toujours le même : d'abord un papier technique, puis le modèle. Liang Wenfeng, le fondateur, a personnellement publié ce papier sur arXiv (comme il l'avait fait avant pour R1 et V3).
Pour rappel : Il y a un an, DeepSeek sortait R1 et faisait chuter l'action Nvidia de 17% en une journée (-600 mds$ de market cap) !
DeepSeek continue de jouer un rôle clé dans le nouveau paradigme de l'IA :
- Les gains du simple scaling s'épuisent
- Les LLMs continuent de progresser via les améliorations architecturales et le Reinforcement Learning
- Les coûts se déplacent vers l'inférence (vs training) mais le prix des tokens s'effondre (divisé par 1 000 en 3 ans), ce qui rend possible l'augmentation de l'utilisation sans l'explosion des coûts
2026 s'annonce aussi intense que 2025