Toutes les grandes organisations que j'accompagne traversent le même moment critique. Après 12 à 18 mois d'expérimentation, elles ont 5 à 10 POCs qui fonctionnent, une équipe data motivée, et un COMEX qui veut « scaler ». C'est précisément à ce moment que la plupart échouent.
Passer de 5 POCs à 70 use cases en production n'est pas une question de multiplier par 14. C'est un changement de nature. Les compétences, les processus, la gouvernance — tout ce qui fonctionnait à l'échelle d'un lab doit être repensé.
Voici ce que j'ai observé en accompagnant ce passage à l'échelle dans des organisations de 5 000 à 50 000 collaborateurs.
Phase 1 : le mur des POCs (mois 0-6)
Quand j'arrive dans une organisation, le paysage est toujours le même : 5 à 10 POCs brillants, portés par des équipes passionnées, avec des résultats spectaculaires — en conditions contrôlées.
Le problème : aucun n'est en production. Ou plutôt, certains le sont « techniquement » — le modèle tourne — mais personne ne l'utilise vraiment. Les signaux d'alerte sont partout.
Les 3 blocages systématiques
- Le gouffre POC-production : le POC fonctionnait avec des données nettoyées à la main. La production exige un pipeline de données industrialisé, du monitoring, des procédures de fallback. L'effort est 5 à 10 fois supérieur au POC lui-même.
- L'absence de gouvernance : chaque BU a lancé ses propres initiatives, avec ses propres outils, ses propres fournisseurs. Trois chatbots différents dans la même entreprise. Aucune gouvernance IA pour rationaliser.
- La dette d'adoption : les POCs ont été construits par des data scientists, pour des data scientists. Les utilisateurs métier n'ont jamais été impliqués dans la conception. Résultat : des outils puissants que personne ne comprend.
Ce que nous faisons en phase 1
Cartographie complète de toutes les initiatives IA : POCs, projets pilotes, abonnements individuels, Shadow AI. Le chiffre surprend toujours. La dernière organisation que j'ai auditée avait 47 initiatives IA pour 15 identifiées officiellement.
Triage impitoyable : pour chaque initiative, trois verdicts possibles. Industrialiser (données OK, adoption réelle, ROI démontré). Pivoter (idée bonne, exécution à revoir). Arrêter (pas de valeur métier ou données insuffisantes). En général, 30 % industrialisent, 30 % pivotent, 40 % s'arrêtent.
Mise en place du comité IA : 5 à 8 personnes, cross-fonctionnel, avec pouvoir de décision. Le comité tue autant de projets qu'il en valide — c'est sa valeur.
Phase 2 : l'industrialisation (mois 6-12)
Une fois le triage fait, les 3 à 5 initiatives retenues passent en industrialisation. C'est la phase la plus ingrate — et la plus critique.
La plateforme commune
Le premier chantier est technique : construire une plateforme IA mutualisée. Pas un outil de plus. Un socle commun : accès données, compute, monitoring, déploiement, logging. Chaque équipe déploie sur la même infrastructure au lieu de réinventer la sienne.
Ce chantier prend 3 à 4 mois et coûte cher. Mais il divise par 5 le coût de chaque use case suivant. C'est l'investissement le plus rentable du scaling.
Le réseau de Champions IA
Parallèlement, on déploie un réseau de Champions IA dans les BU. J'insiste sur « sérieusement » : 2 à 3 personnes par BU, avec une vraie formation (pas un webinaire un vendredi après-midi) et 20 % de leur temps dédié. C'est un investissement conséquent. Je l'ai d'abord sous-estimé — sur une de mes premières missions de scaling, on avait nommé des Champions sans leur libérer de temps. Résultat : ils ont fait ça en plus de leur job, et au bout de 2 mois plus personne n'avait le temps. Depuis, le temps dédié est non négociable.
Leur rôle concret : identifier les use cases à fort impact dans leur périmètre, faciliter l'adoption, remonter les problèmes terrain au comité IA, et mesurer ce qui compte vraiment — l'adoption réelle, pas le nombre de licences activées.
Les métriques qui comptent
À cette phase, les métriques changent radicalement. On ne mesure plus la précision du modèle. On mesure :
- L'adoption réelle : combien d'utilisateurs actifs quotidiens ? (pas mensuels)
- La valeur métier : quel impact mesurable sur le KPI cible ?
- Le coût par use case : combien coûte la mise en production d'un nouveau use case sur la plateforme ?
- Le time-to-value : combien de temps entre l'idée et la valeur en production ?
Phase 3 : l'accélération (mois 12-24)
C'est là que la magie opère. Avec une plateforme mutualisée, un réseau de Champions actif, et une gouvernance qui fonctionne, le rythme de déploiement s'accélère de manière spectaculaire.
Le premier use case industrialisé prend 6 mois. Le dixième prend 3 semaines. Ce qui a changé entre les deux ? Pas la complexité des use cases — la maturité de l'organisation. Les pipelines de données sont en place, les Champions savent qualifier un use case, les équipes savent déployer. En gros, l'organisation est passée du stade « on fait de l'IA » au stade « on sait faire de l'IA ». Et cette différence se mesure en semaines, pas en mois.
Le passage de 10 à 70
À ce stade, la stratégie évolue. On ne cherche plus des use cases « safe » à fort ROI immédiat. On commence à explorer des applications plus ambitieuses :
- Use cases transverses : un modèle utilisé par plusieurs BU. La maintenance prédictive dans une usine devient un framework réutilisable dans 12 sites.
- Chaînes agentiques : des agents IA qui collaborent entre eux pour des workflows complexes.
- IA embarquée : l'IA intégrée dans les outils métier existants, invisible pour l'utilisateur final.
Les erreurs de phase 3
Le succès de l'accélération crée ses propres pièges :
- L'excitation du COMEX : « Si 20 use cases marchent, faisons-en 200. » Non. La capacité de l'organisation à absorber le changement est limitée. Le FOMO revient sous une autre forme.
- La dette technique IA : multiplier les modèles sans MLOps solide crée une dette technique invisible. 70 modèles en production sans monitoring, c'est 70 bombes à retardement.
- L'oubli du changement humain : à force de déployer des modèles, on oublie que chaque use case change le quotidien de quelqu'un. Le M3K ne s'arrête jamais — il accompagne chaque vague.
Les chiffres clés d'un scaling réussi
Voici les repères que j'observe dans les organisations qui réussissent leur passage à l'échelle :
- Taux de survie POC → production : 25-35 % (contre 8 % en moyenne selon McKinsey)
- Coût du 10e use case : 20-30 % du coût du premier (effet plateforme)
- Time-to-value : de 6 mois (premier use case) à 3-4 semaines (après 12 mois)
- Adoption réelle : >60 % d'utilisateurs actifs quotidiens sur les use cases industrialisés
- ROI portfolio : positif à partir du 8e-10e use case industrialisé
Ces chiffres ne sont pas des objectifs de cabinet de conseil. Ce sont des observations terrain. Et ils varient — j'ai vu des organisations aller plus vite, et d'autres ne jamais franchir la phase 2. La différence tient rarement à la technologie. Elle tient à la volonté de la direction de tuer des projets qui ne marchent pas, et de donner du temps aux équipes pour apprendre.
Ce que cela change pour ceux qui dirigent
Le passage à l'échelle transforme le rôle des dirigeants d'une manière que beaucoup n'anticipent pas. Le sponsor IA qui validait des POCs un par un doit devenir un gestionnaire de portfolio — quelqu'un qui arbitre entre des dizaines d'initiatives concurrentes, qui accepte d'arrêter ce qui ne marche pas, et qui mesure le ROI global plutôt que la performance de chaque modèle individuel.
C'est un changement de posture profond. On passe de « est-ce que ce POC marche ? » à « est-ce que mon portefeuille IA crée de la valeur ? ». Et franchement, la plupart des dirigeants que je rencontre ne sont pas encore prêts pour cette question. C'est là que le travail de transformation managériale commence vraiment, avec des outils comme le M3K.
Pour aller plus loin, découvrez comment la gouvernance IA structure le passage à l'échelle, et comment l'approche IAgile intègre le scaling dans ses principes fondateurs.