English version

REX : un PI Planning augmenté par l'IA, qu'est-ce que ça change ?

Brian PLUS 2026-03-30 inspearit
Sommaire

J'ai facilité mon premier PI Planning en 2014. Depuis, j'en ai fait plus d'une centaine — chez Orange, Renault, Allianz, des ETI industrielles. Le format est rodé. Deux jours, 80 à 150 personnes, des post-its partout, des dépendances identifiées au mur, un plan d'incrément qui sort à la fin. Ça marche. Mais ça pourrait marcher beaucoup mieux.

Il y a 6 mois, j'ai tenté quelque chose de différent : intégrer des agents IA dans le processus de PI Planning. Pas pour remplacer les humains — pour amplifier ce qu'ils font déjà. Voici ce qui s'est passé, sans embellir.

Le contexte

Un ART de 9 équipes dans le secteur assurance, environ 110 personnes. Le problème récurrent à chaque PI Planning : les dépendances. Avec 9 équipes, le nombre de dépendances potentielles explose. Les équipes passaient la moitié du jour 1 à identifier manuellement qui dépendait de qui. Et malgré ça, on découvrait toujours des dépendances non identifiées en milieu de PI.

Deuxième problème : la capacité. Chaque équipe estimait sa capacité en story points, mais les références variaient tellement d'une équipe à l'autre que les comparaisons étaient inutiles. Un « 8 » chez l'équipe Alpha équivalait à un « 13 » chez l'équipe Delta.

Ce qu'on a essayé

Agent 1 : analyse de dépendances

On a alimenté un agent avec l'historique des 4 derniers PIs : features, stories, dépendances identifiées, dépendances découvertes tard. L'agent devait analyser les features du PI à venir et prédire les dépendances probables avant le PI Planning.

Résultat : l'agent a identifié 23 dépendances potentielles. Les équipes en ont validé 17 (74 %). Les 6 restantes étaient des faux positifs — des patterns historiques qui ne s'appliquaient plus. Mais voici le plus intéressant : l'agent a identifié 4 dépendances que personne n'avait vues. Dont une critique entre l'équipe backend et l'équipe data qui, sans cette alerte, aurait bloqué un objectif de PI entier.

Gain de temps estimé : 2h30 sur le jour 1. Mais le vrai gain était la réduction des surprises en milieu de PI.

Agent 2 : calibration de capacité

Celui-là, ça n'a pas marché. L'idée : utiliser l'historique de vélocité et les patterns de livraison pour proposer une capacité réaliste par équipe. Le problème : les équipes l'ont perçu comme un outil de contrôle, pas d'aide. « C'est l'IA qui décide combien on peut livrer ? » La résistance a été immédiate.

J'aurais dû le voir venir. La capacité est un sujet sensible — c'est lié à l'identité de l'équipe, à sa fierté, à son autonomie. Proposer un chiffre venu « d'en haut » (même si c'est un algorithme) équivaut à remettre en question leur compétence. Le sujet n'est pas technique — il est humain.

On a pivoté : au lieu de proposer une capacité, l'agent montre les écarts entre capacité planifiée et livrée sur les 4 derniers PIs. Chaque équipe tire ses propres conclusions. Ça marche mieux. Pas parfaitement — mais mieux.

Agent 3 : synthèse en temps réel

Pendant le PI Planning, un agent captait les décisions clés, les risques identifiés et les engagements, et produisait une synthèse mise à jour toutes les heures. Le RTE pouvait à tout moment demander « où en sont les risques ouverts ? » et obtenir une réponse en 30 secondes au lieu de parcourir 40 post-its.

Le feedback des équipes : unanimement positif. Pas parce que c'était révolutionnaire — mais parce que ça supprimait une tâche ingrate que personne n'aimait faire.

Ce que j'en retiens

Après cette expérience, j'ai trois convictions.

Première conviction : l'IA brille sur les tâches de synthèse et de pattern matching, pas sur les tâches relationnelles. Identifier des dépendances dans un historique de données, produire des synthèses — c'est là que l'IA ajoute le plus de valeur. Dès qu'on touche à l'estimation, à la négociation, au compromis entre équipes — c'est humain, et ça doit le rester.

Deuxième conviction : le mode copilote est non négociable. L'agent propose, l'humain dispose. On ne demande pas à un agent de décider la capacité d'une équipe ou de prioriser les features. On lui demande d'éclairer la décision humaine. C'est le principe fondamental de l'approche IAgile — et le PI Planning est l'endroit idéal pour le mettre en pratique.

Troisième conviction : l'agent le plus utile est celui qui élimine une corvée, pas celui qui impressionne. L'agent de synthèse en temps réel n'avait rien de spectaculaire. Mais il a été le plus apprécié, parce qu'il supprimait une tâche que tout le monde détestait. L'agent de calibration de capacité était techniquement plus impressionnant — et il a été rejeté.

Pour le prochain PI Planning, on prévoit d'ajouter un agent de détection de risques transverses. Et cette fois, je sais qu'il faut le présenter comme un outil pour les équipes, pas comme un outil pour le management. La différence de positionnement change tout dans l'adoption.

Pour aller plus loin sur le cadre SAFe AI-Native et comment il structure l'intégration de l'IA dans les cérémonies agiles.

Vous préparez un PI Planning et vous voulez explorer l'option IA ? 30 minutes pour en parler.

Réserver un créneau →