Les SLM vont tuer les LLM. Et personne n'en parle .
MIT Technology Review vient de classer les Small Language Models dans son top 10 des breakthrough technologies de 2025.
Le truc fou ? Phi-3 Mini (3.8B de paramètres) performe mieux que des modèles 10x plus gros. 15x plus rapide. 73% moins cher à déployer.
Concrètement, ça change quoi pour nous, professionnels de la data et IA ?
On peut enfin déployer de l'IA on-device. Fini la latence cloud. Fini les problèmes RGPD sur les données sensibles. Les collectivités peuvent tourner des agents IA sur des serveurs standards. Pas besoin d'infrastructure GPU à 100k . Fine-tuning en quelques heures au lieu de semaines. Avec LoRA, on adapte un modèle à nos cas métiers sans tout réentraîner.
Le secret technique ?
Knowledge distillation : un petit modèle "étudiant" apprend d'un gros modèle "professeur". Mais au lieu d'ingérer toutes les données brutes, il capture juste les patterns essentiels.
Résultat : Phi-2 (2.7B) rivalise avec des LLM de 30B sur du raisonnement logique et du code.
Pourquoi maintenant ? Parce que NVIDIA vient de sortir un papier qui dit clairement : les SLM sont l'avenir de l'IA agentique.
Dans leurs tests, ils remplacent 70% des appels LLM par des SLM dans leurs agents autonomes. Même performance. Coût divisé par 10-30x.
Les acteurs qui vont gagner ? Ceux qui comprendront qu'on n'a pas besoin d'un bazooka GPT-4 pour ouvrir une porte. L'IA devient enfin pratique. Efficace. Déployable.