Miser uniquement sur les LLM pour votre strategie IA, c'est comme essayer d'accelerer une voiture en appuyant toujours plus fort sur l'accelerateur alors que le moteur est deja a fond. Ca avance encore, mais on sent bien que quelque chose va casser. Et cette fois, c'est Yann LeCun lui-meme — l'un des peres du deep learning — qui le dit sans detour : les LLM ne meneront pas a l'intelligence artificielle generale.
Quand un chercheur de ce calibre quitte Meta pour pousser une vision radicalement differente, ce n'est pas un tweet provocateur. C'est un signal strategique que chaque dirigeant devrait integrer dans sa feuille de route.
Le plafond invisible des LLM
Le probleme fondamental des LLM tient a leur architecture meme. Ils generent du texte jeton par jeton — comme ecrire un roman lettre par lettre. C'est lent, couteux en compute, et ca cree un plafond que ni le scaling ni le fine-tuning ne feront disparaitre.
Concretement, un LLM ne comprend rien. Il predit le mot suivant avec une precision statistique impressionnante, mais sans modele interne du monde. Il ne planifie pas. Il n'anticipe pas. Il ne raisonne pas au sens cognitif du terme. Comme le resume LeCun : « les LLM sont utiles, pas intelligents ».
Sur le terrain, j'observe les consequences directes de cette limite. Des entreprises qui empilent des prompts de plus en plus complexes pour compenser l'absence de raisonnement causal. Des pipelines IA fragiles ou le moindre changement de contexte produit des hallucinations. Des couts d'inference qui explosent a mesure qu'on pousse les modeles vers des taches qu'ils n'ont pas ete concus pour accomplir.
Le constat est clair : on ne scale pas l'intelligence en scalant la taille du modele. Il faut changer de paradigme.
CALM : scaler la bande passante, pas la taille
C'est la qu'entre en jeu CALM (Continuous Autoregressive Language Model). Au lieu de predire le prochain mot, le modele predit le prochain vecteur. La difference est fondamentale.
Imaginez que vous devez envoyer un message. L'approche LLM classique, c'est envoyer chaque lettre dans une enveloppe separee. CALM, c'est regrouper plusieurs mots dans un seul colis. L'autoencodeur compresse plusieurs jetons en un seul vecteur, puis les reconstruit avec plus de 99,9 % de fidelite. Le modele avance quatre fois plus vite par etape de generation.
L'Energy Transformer ajoute une capacite decisive : la generation en un seul bond, sans les etapes repetitives qui ralentissent les LLM classiques. On ne scale plus la taille du modele — on scale la quantite de sens que chaque etape de generation peut transporter.
Soyons lucides : CALM n'est pas encore industrialise. C'est une preuve de concept prometteuse, pas une solution prete a remplacer GPT en production demain matin. Mais le signal est limpide. Le futur des modeles ne sera pas « plus gros », mais « plus intelligents par etape ».
VL-JEPA et les world models : comprendre avant de parler
L'autre rupture majeure vient des world models, et en particulier de VL-JEPA (Vision-Language Joint Embedding Predictive Architecture). L'idee est simple et puissante : au lieu d'apprendre a generer du texte, l'IA apprend a comprendre le monde — les relations causales, la physique intuitive, la temporalite.
Les LLM sont forts pour produire du texte. Faibles pour comprendre le contexte, la causalite et le timing. Or le travail reel, c'est exactement ca : des signaux faibles, des anticipations, des decisions sous incertitude.
Le langage n'est pas l'intelligence. C'est l'interface. Miser toute sa strategie IA sur les LLM, c'est optimiser le clavier au lieu de construire le cerveau.
Quand LeCun quitte Meta pour fonder sa propre structure autour de VL-JEPA et des world models, il vote avec ses pieds. Son pari : une IA qui comprend le monde avant de parler sera infiniment plus utile qu'une IA qui parle sans comprendre.
Ce que ca change pour votre strategie
Si votre feuille de route IA repose a 100 % sur les LLM, vous construisez sur du sable mouvant. Ca ne veut pas dire qu'il faut tout arreter demain. Les LLM restent extremement utiles pour des cas precis : generation de contenu, assistance a la redaction, synthese de documents, code assistants.
Mais ca veut dire trois choses concretes :
1. Decouplage strategique. Vos architectures IA doivent etre modulaires. Le jour ou CALM, VL-JEPA ou une autre approche post-LLM sera mature, vous devez pouvoir pivoter sans tout reconstruire. Les organisations qui ont fusionne leur strategie produit avec un seul fournisseur LLM paieront cher cette dependance.
2. Investissement dans la comprehension, pas dans la generation. Les gains de productivite les plus durables viendront des systemes qui comprennent le contexte metier — pas de ceux qui generent du texte plus vite. Formez vos equipes aux concepts de raisonnement causal, de world models, de representation vectorielle.
3. Veille active sur l'ecosysteme post-LLM. CALM, VL-JEPA, les architectures neuro-symboliques, le raisonnement spatial — ces approches sont en laboratoire aujourd'hui. Elles seront en production dans 18 a 36 mois. Les entreprises qui auront fait leur veille seront pretes. Les autres devront courir derriere.
L'avertissement geopolitique de LeCun merite aussi d'etre entendu : les meilleurs modeles open source sont aujourd'hui chinois. Si l'Occident s'endort sur ses lauriers LLM, il se fera doubler sur la prochaine vague.
Les LLM feront le bruit. Les world models feront la valeur.
Le paradigme change. Ce n'est pas une hypothese — c'est une convergence de signaux forts venant des meilleurs chercheurs de la planete. Les organisations qui auront compris que l'IA de demain ne sera pas un GPT plus gros, mais un systeme qui comprend, planifie et agit, prendront une longueur d'avance decisive.
J'accompagne les entreprises qui veulent prendre ce virage : workflows augmentes, management reinvente, produits AI-native. Pas en suivant les buzzwords, mais en construisant des fondations strategiques solides pour l'ere post-LLM.