English version

Explicabilité IA : pourquoi personne n'utilise votre modèle

Brian PLUS 2026-03-30 inspearit
Sommaire

Le modèle est déployé. La précision est excellente. Les data scientists sont fiers. Et six mois plus tard, les équipes métier n'utilisent toujours pas l'outil. Ou pire : elles l'utilisent mais ignorent ses recommandations.

Ce scénario, je le rencontre dans la moitié des transformations IA que j'accompagne. Le modèle fonctionne. L'adoption, non. Et la raison est presque toujours la même : personne ne comprend comment l'IA arrive à ses conclusions.

Bon, soyons francs : si votre modèle est performant mais que personne ne s'en sert, le problème n'est pas la technologie. Le problème, c'est que vous demandez à des gens de faire confiance à une boîte noire. Et à leur place, vous ne le feriez pas non plus.

L'histoire du modèle à 89 % que personne n'utilisait

Je vais commencer par une histoire, parce qu'elle résume tout. Un opérateur télécom de 12 000 salariés déploie un modèle XGBoost de prédiction de churn. Précision : 89 %. L'équipe data est fière, le COMEX valide le déploiement. Trois mois plus tard, les commerciaux terrain ne l'utilisent plus.

Pourquoi ? Parce que quand le modèle disait « ce client va partir », les commerciaux ne savaient pas pourquoi. Impossible de décrocher le téléphone et de dire « bonjour, un algorithme me dit que vous allez résilier ». Ils avaient besoin de la cause — facturation, qualité réseau, offre concurrente — pour construire une action de rétention crédible.

Le modèle a été remplacé par un système à règles, co-construit avec les équipes terrain. Moins précis — 72 % — mais utilisé tous les jours. Je me suis longtemps demandé si c'était un échec ou un succès. Aujourd'hui, je suis convaincu que le modèle à 72 % créait plus de valeur que celui à 89 % que personne ne consultait. La performance brute ne vaut rien sans adoption.

Ce que les managers ont besoin de comprendre (et ce qu'ils n'ont pas besoin de savoir)

Je simplifie volontairement, mais en gros l'explicabilité fonctionne comme un spectre. D'un côté, la transparence globale : le manager sait que le modèle de churn prend en compte la fréquence d'achat, les réclamations et le délai depuis le dernier contact. Il ne sait pas le poids exact de chaque facteur, mais il voit la logique. Ça suffit pour du tri de tickets ou de la recommandation de contenu.

De l'autre côté, l'explication locale : « ce client va partir parce que ses achats ont baissé de 40 % en 3 mois et qu'il a ouvert 3 réclamations non résolues ». Là, le commercial peut agir. C'est ce dont ont besoin tous les métiers où la décision IA implique une action humaine derrière.

Et puis il y a la traçabilité complète — quelles données consultées, quel raisonnement suivi, quelles alternatives écartées. C'est ce que l'AI Act européen exige pour les systèmes à haut risque (recrutement, crédit, santé). Franchement, la plupart des organisations que je vois n'en sont pas encore là. Mais elles vont devoir y venir, parce que c'est désormais une obligation légale.

Pourquoi les managers rejettent l'IA opaque

L'adoption de l'IA par les managers est le goulot d'étranglement de la plupart des transformations. Et le rejet est rarement exprimé ouvertement. Il prend des formes subtiles.

Le premier, le plus courant : l'utilisation décorative. Le manager ouvre le dashboard IA en réunion, montre les graphiques, et prend ses décisions exactement comme avant. L'outil sert à cocher la case « on utilise l'IA » dans le reporting trimestriel.

Le deuxième : le contournement. L'équipe maintient ses propres tableaux Excel en parallèle. Du coup, le Shadow AI ne naît pas toujours d'un désir d'innovation clandestine — il naît souvent d'un outil officiel que personne ne comprend.

Le troisième, et c'est le plus dangereux : la délégation aveugle. Certains managers suivent les recommandations IA sans les comprendre, ce qui crée une dette cognitive massive. J'ai vu un responsable des achats appliquer les suggestions de son outil de pricing pendant 5 mois sans jamais les vérifier. Quand les données source ont changé de format, les prix sont partis en vrille. Personne ne s'en est aperçu pendant 3 semaines.

Dans les trois cas, la transformation échoue à cause des managers. Pas parce qu'ils sont incompétents — parce qu'on leur a filé un outil en leur disant « faites-nous confiance ».

L'explicabilité comme levier de conduite du changement

Dans le travail que je fais avec le framework M3K, j'ai fini par comprendre que l'explicabilité n'est pas un sujet technique. C'est un sujet de posture managériale.

Former les managers à l'IA, ce n'est pas leur apprendre à prompter (même si ça peut aider). C'est leur donner les clés pour comprendre quelle logique métier le modèle suit, savoir quand faire confiance au résultat et quand le remettre en question, et surtout être capables d'expliquer à leur équipe pourquoi une décision assistée par l'IA a été prise.

Un manager qui peut expliquer « l'IA nous recommande de prioriser ce client parce que ses indicateurs de satisfaction ont chuté de 30 % et qu'il représente 15 % de notre CA » génère de la confiance. Un manager qui dit « l'IA dit de faire ça » génère du rejet.

Les principes d'une IA explicable en entreprise

Commencer simple, complexifier ensuite

La tentation des équipes data est de déployer le modèle le plus performant possible. Mauvaise stratégie. Commencez par un modèle nativement interprétable (règles métier, arbres de décision, régression logistique). L'adoption construira la confiance. Et la confiance permettra de complexifier progressivement.

Co-construire avec les utilisateurs finaux

L'explicabilité ne se conçoit pas en silo. Ce qui est « explicable » pour un data scientist ne l'est pas pour un commercial. Impliquez les équipes métier dès la conception : quels facteurs sont pertinents pour eux ? Quel niveau de détail est utile ? Quel format (tooltip, rapport, indicateur visuel) facilite leur prise de décision ?

Intégrer l'explication dans l'UX

L'explicabilité ne doit pas être une annexe technique accessible aux experts. Elle doit être intégrée dans l'interface : un indicateur de confiance visuel, une phrase résumant le raisonnement, un lien vers les facteurs contributifs. Si l'explication nécessite de quitter l'outil, personne ne la consultera.

Mesurer la compréhension, pas seulement l'utilisation

La plupart des organisations mesurent l'adoption IA en licences activées ou en connexions. C'est insuffisant. Mesurez la compréhension : les utilisateurs peuvent-ils expliquer pourquoi le modèle a fait telle recommandation ? Font-ils la différence entre un résultat fiable et un résultat incertain ? C'est le vrai marqueur d'adoption.


L'AI Act et l'urgence réglementaire

L'explicabilité n'est plus seulement une question de bonne pratique. L'AI Act européen, en vigueur depuis 2024, impose des obligations de transparence pour les systèmes IA à haut risque. Cela inclut :

Les organisations qui n'intègrent pas l'explicabilité dès la conception s'exposent à des sanctions réglementaires, mais aussi à un risque réputationnel majeur. Le précédent RGPD a montré que la mise en conformité a posteriori coûte dix fois plus cher que l'intégration dès le départ.

Le test que je fais passer en premier rendez-vous

La dernière fois que j'ai posé cette question à un directeur commercial — « peux-tu m'expliquer comment ton outil IA arrive à ses recommandations ? » — il m'a regardé avec un blanc de 10 secondes. Puis il a dit : « En fait, non. Mais il marche bien. » Ça résume tout le problème.

Si vos managers ne peuvent pas expliquer la logique de l'outil, s'ils ne font pas la différence entre un résultat fiable et un résultat incertain, et s'ils ne savent pas quoi faire face à une recommandation contre-intuitive — alors votre explicabilité est insuffisante. Peu importe la précision du modèle.

Je sais que ça paraît contre-intuitif : ralentir le déploiement pour investir dans l'explicabilité. Mais un modèle que personne ne comprend est un modèle que personne n'utilise. Et un modèle que personne n'utilise, aussi performant soit-il, ne vaut rien.

Pour aller plus loin, découvrez le framework M3K pour structurer l'adoption managériale, et l'approche IAgile pour intégrer l'explicabilité dès la phase Discovery.

Envie d'en discuter ? Réservez un appel gratuit de 30 minutes, sans engagement.

Réserver un diagnostic gratuit →