DeepSeek : l'IA moins chere et plus stable

Brian PLUS 2026-03-28 inspearit

DeepSeek frappe encore

Le 1er janvier 2026, DeepSeek a publié un nouveau papier de recherche : mHC (Manifold-Constrained Hyper-Connections). C'est une amélioration de l'architecture Transformer qui rend l'entraînement plus stable et moins cher.

Un nouveau modèle flagship arrive probablement d'ici mi-février.

Leur playbook est toujours le même : d'abord un papier technique, puis le modèle. Liang Wenfeng, le fondateur, a personnellement publié ce papier sur arXiv (comme il l'avait fait avant pour R1 et V3).

Pour rappel : Il y a un an, DeepSeek sortait R1 et faisait chuter l'action Nvidia de 17% en une journée (-600 mds$ de market cap) !

DeepSeek continue de jouer un rôle clé dans le nouveau paradigme de l'IA :

2026 s'annonce aussi intense que 2025

Envie d'en discuter ? Reservez un creneau de 30 minutes, sans engagement.

Reserver un diagnostic gratuit →