Ce qui arrive maintenant est structurellement différent. L'IA agentique n'est pas une version améliorée des outils que vous connaissez — c'est le passage d'un système qui répond à un système qui décide. Et quand c'est le système qui décide, la question de la responsabilité change de nature.
En janvier, on a posé le cadre — les deux questions fondamentales, le cadre LEAP™, et pourquoi 2026 est l'année où l'IA devient un sujet de direction. Ce deuxième dossier va plus loin sur le sujet qui revient le plus dans vos réponses : l'IA agentique. Tout le monde en parle, presque personne ne comprend vraiment ce que ça change. Pas par manque d'intérêt — par excès de bruit. Ce dossier est ma tentative de réponse concrète. Pas de prospective — des cas documentés, des chiffres réels, et un chemin gradué selon votre couche LEAP™.
L'IA que vous utilisez aujourd'hui — ChatGPT, Copilot, Claude — fonctionne en mode conversationnel. Vous posez une question. Elle répond. Vous donnez une instruction. Elle exécute. Chaque échange est isolé. L'outil attend que vous agissiez.
L'IA agentique fonctionne différemment. Elle reçoit un objectif — pas une instruction — et elle s'organise pour l'atteindre de façon autonome. Elle observe son environnement, prend des décisions, exécute des actions, vérifie les résultats, et ajuste sa stratégie en cours de route. Sans attendre que vous la relancez à chaque étape.
Ce que ça veut dire concrètement. Dans une direction financière : l'agent reçoit un dossier de clôture, détecte les écritures manquantes, réclame les pièces automatiquement, réalise la réconciliation, prépare le reporting, le soumet à révision humaine, et archive le tout avec piste d'audit — sans qu'un collaborateur ait coordonné chacune de ces étapes.
Dans un cabinet juridique : un agent surveille les échéances de renouvellement de contrats, analyse les clauses à risque, prépare un résumé des points d'attention pour l'avocat, et génère un premier projet de redline — le tout avant que l'avocat ouvre le dossier.
L'IA générative crée du contenu. L'IA agentique agit sur le monde. C'est la différence entre un outil qui écrit un courriel pour vous et un système qui envoie le courriel, suit la réponse, met à jour votre CRM, et planifie le suivi — parce que vous lui avez dit d'assurer le suivi de cette opportunité jusqu'à conclusion.
Ce chiffre est plus radical qu'il n'y paraît. Il ne dit pas que 40 % des organisations utiliseront l'IA. Il dit que 40 % des logiciels que vous utilisez déjà — votre ERP, votre CRM, votre logiciel de gestion — auront des agents intégrés d'ici la fin de l'année. Vous n'aurez pas à les acheter séparément. Ils arriveront dans votre interface habituelle.
Le précédent KPMG–Grant Thornton. En février 2026, KPMG a exigé de Grant Thornton une réduction de 14 % de ses honoraires d'audit — au motif que l'IA réduisait désormais le temps de travail requis. Grant Thornton a accepté. C'est le premier précédent documenté d'un client exigeant une réduction tarifaire directement liée à l'efficacité de l'IA.
Pour les grandes organisations, ce précédent est un signal d'alarme : vos clients et partenaires commencent à comprendre que l'IA compresse vos coûts. La pression sur les tarifs n'est plus une question théorique.
Deux vitesses, une fracture qui s'accélère. Le rapport Thomson Reuters 2026 documente une fracture nette dans les secteurs juridique, comptable et conseil. Les organisations qui ont formalisé une stratégie IA sont trois à quatre fois plus susceptibles d'en tirer des bénéfices mesurables. 30 % des professionnels juridiques utilisent déjà l'IA plusieurs fois par jour, mais seulement 16 % des firmes ont déployé de l'IA agentique à l'échelle organisationnelle.
Dans une grande organisation, l'IA agentique n'arrive pas par un projet de transformation. Elle arrive par les outils — une mise à jour de Microsoft 365, une nouvelle fonctionnalité Salesforce, un module activé par défaut dans votre ERP. Vos équipes commencent à l'utiliser avant que la direction ait décidé si c'était une bonne idée. C'est la caractéristique la plus importante à comprendre : dans les grandes organisations, l'IA agentique ne demande pas la permission.
Ce qui change selon la direction :
Direction des opérations. Les agents prennent en charge les workflows de coordination — collecte de pièces, relances, escalades, reporting. Ce qui consommait 40% du temps d'une équipe devient une surveillance d'exception. La question n'est pas "est-ce que l'agent fait bien le travail" — c'est "qui décide quand l'agent a tort et comment on le sait ?"
Direction RH. Les agents gèrent déjà des premières interactions candidats dans certaines organisations — tri de CV, planification d'entretiens, réponses automatisées. L'EU AI Act classe ces systèmes en risque élevé. Les organisations qui les ont déployés sans registre ni propriétaire nommé ont une exposition réglementaire qu'elles n'ont pas encore mesurée.
Direction juridique et conformité. Les agents accélèrent la revue contractuelle et la veille réglementaire. Mais ils créent aussi un nouveau risque : des analyses produites par un système que personne ne peut auditer. Dans un contexte réglementaire en évolution rapide, l'incapacité à expliquer comment une décision a été prise est un risque en soi.
Direction financière. Les agents de réconciliation, de clôture automatisée, de préparation des reportings sont déjà en production dans plusieurs grandes organisations. Le signal qui revient systématiquement : les gains de productivité sont réels, mais le retravail sur les exceptions non gérées par l'agent absorbe une partie significative du gain.
Ce que ces quatre directions ont en commun : elles déploient des agents sur des processus à conséquences réelles — pour des collaborateurs, des clients, des régulateurs. Et dans la grande majorité des cas, elles n'ont pas encore répondu à la question de la responsabilité. Pas par négligence — par absence de cadre.
Dans une grande organisation de services financiers européenne, un audit interne révèle en janvier 2026 que 7 agents IA sont actifs en production dans 3 directions différentes. Aucun n'a de propriétaire formel nommé. Deux ont été déployés sans passer par la DSI. La direction générale n'en connaissait que 3. Ce n'est pas un cas isolé — c'est le pattern le plus fréquent que j'observe dans les grandes organisations en 2026.
Le cas DeVry University. Deloitte et Computerworld documentent comment l'institution a déployé son premier agent IA en avril 2025. En février 2026, le système gère de façon autonome plusieurs workflows critiques de l'admission à l'accompagnement étudiant. La clé de leur succès : ils ont commencé par identifier les processus à haute fréquence et faible valeur ajoutée, pas les plus complexes. Chaque agent lancé était assorti d'un ROI calculé et signé par un partenaire financier avant le déploiement.
Le cas du gestionnaire immobilier américain. Selon Harvard Business Review, un grand gestionnaire immobilier a déployé un système multi-agents pour la gestion des baux : un agent orchestrateur coordonne trois agents spécialisés — analyse documentaire, récupération de données, gouvernance. Résultat : un processus qui prenait 5 jours de travail humain distribué est maintenant complété en 4 heures, avec une réduction des erreurs de 89 %.
Le signal McKinsey sur l'adoption. 39 % des organisations expérimentent actuellement des agents IA, mais seulement 23 % ont commencé à les déployer à l'échelle dans au moins une fonction. L'écart entre l'expérimentation et le déploiement réel est le territoire où se jouera la compétitivité des 24 prochains mois.
L'IA agentique n'exige pas un budget de grande organisation ni un département TI dédié pour commencer. Ce qui est requis, c'est une méthode.
Le ROI augmente exponentiellement à mesure qu'on monte dans les couches — à condition que chaque verrou soit résolu correctement. Sauter des couches sans les résoudre réduit le ROI réel.
→ Vous ne savez pas dans quelle couche vous êtes ? La Scorecard LEAP™ vous positionne en 10 minutes.
L'IA agentique n'est pas un projet de transformation sur 18 mois. Un premier déploiement peut être en production en 90 jours — si on choisit le bon processus, si on définit le périmètre avant de déployer, et si on construit la surveillance en même temps que le système. Un agent en production avec un cadre minimal vaut infiniment mieux qu'un agent parfait encore en conception.
Objectif : choisir le bon premier processus
Semaines 1-2 : L'inventaire des processus candidats. Une seule question à poser à chaque direction : quels sont vos processus les plus répétitifs, à haute fréquence, et dont la qualité dépend aujourd'hui de la disponibilité de vos collaborateurs ? Pas les plus complexes — les plus fréquents. Dans chaque organisation que j'ai observée, trois à cinq processus candidats émergent immédiatement. Le premier agent devra être choisi parmi eux.
Semaines 3-4 : Définir le périmètre du premier agent. Trois questions avant de choisir : que peut décider l'agent sans validation humaine ? Qu'est-ce qu'il doit escalader ? Qu'est-ce qu'il ne peut jamais faire ? Ces questions prennent deux heures à répondre avant le déploiement. Elles prennent des semaines à reconstruire après un incident.
Livrable Mois 1 : Processus sélectionné · Périmètre de décision documenté · Propriétaire nommé · Métriques de succès définies avant le déploiement.
Objectif : mettre en production avec surveillance intégrée
Semaines 5-6 : Le déploiement en double-run. L'agent tourne en parallèle du processus manuel pendant deux semaines. Pas pour valider que ça marche techniquement — pour construire la confiance des équipes dans les outputs, et pour détecter les cas d'exception que le périmètre n'avait pas anticipés. Le double-run n'est pas une étape optionnelle.
Semaines 7-8 : Activation et premier protocole de surveillance. L'agent passe en production exclusive. Un humain consacre 30 minutes par semaine à réviser un échantillon des décisions — pas toutes, un échantillon représentatif. Ce n'est pas du micromanagement. C'est le mécanisme qui détecte les dérives avant qu'elles deviennent des incidents.
Livrable Mois 2 : Agent en production · Protocole de surveillance hebdomadaire actif · Journal des exceptions documenté · Premier bilan bi-bilan (gains vs coûts cachés).
Objectif : installer le cadre qui permet de passer au deuxième agent
Semaines 9-10 : Le premier bilan formel. Quatre questions : le ROI réel correspond-il aux métriques définies en mois 1 ? Quelles exceptions ont émergé ? Le périmètre de décision est-il toujours juste ? Quels processus candidats pour le deuxième agent ? Ce bilan n'est pas une réunion de plus — c'est la décision de continuer, d'ajuster, ou d'arrêter.
Semaines 11-12 : La documentation du cadre. Pas un manuel de 40 pages. Une page qui documente : quel processus, quel périmètre, qui surveille, comment on escalade, comment on arrête. Cette page est la base sur laquelle chaque déploiement suivant s'appuie — elle réduit de moitié le temps de déploiement du deuxième agent.
Livrable Mois 3 : Bilan formel ROI · Cadre de déploiement v1 documenté · Décision go/no-go sur le deuxième processus · Organisation prête à scaler.
L'IA agentique n'est pas gratuite — et les coûts surprennent presque toujours ceux qui ne les ont pas modélisés avant de déployer. Trois postes à avoir en tête.
Coûts d'implémentation (one-time). Pour un premier agent sur un workflow simple — réconciliation bancaire, collecte de pièces manquantes — les estimations documentées par CPA Practice Advisor et Deloitte situent l'investissement entre 15 000 et 60 000 $ selon la complexité des intégrations API requises. Ces fourchettes concernent les premiers déploiements à l'échelle d'une équipe ou d'une fonction isolée. Dans un environnement de grande organisation avec des systèmes legacy et des exigences de conformité élevées — assurance, banque, grands groupes — l'investissement initial se situe typiquement entre 150 000 et 500 000 $, principalement absorbé par le verrou d'intégration. Les organisations qui réussissent ont systématiquement investi en amont dans la connexion de leurs systèmes (DMS, CRM, ERP) — ce n'est pas le coût de l'agent, c'est le coût du verrou d'intégration.
Coûts récurrents. Les plateformes agentiques (Microsoft Copilot Studio, Salesforce Agentforce, Zapier AI) facturent à l'usage — par exécution, par token consommé, ou par utilisateur. À l'échelle d'une équipe de 10 à 50 personnes, les estimations de marché situent les coûts récurrents entre 500 et 3 000 $/mois selon l'intensité d'utilisation. Le risque de dérive est réel : sans tableau de bord FinOps, les coûts peuvent tripler en six mois sans que personne ne le remarque avant la facture.
Le gestionnaire immobilier cité en section 04 a récupéré l'équivalent de 5 jours de travail humain par cycle de traitement. À 40 cycles/mois, cela représente environ 200 jours de travail récupérés — réorientés vers des tâches à valeur ajoutée. L'investissement initial (intégrations + déploiement) a été amorti en moins de 8 mois.
La question FinOps à poser avant de déployer : quel est votre seuil de rentabilité en nombre de dossiers traités par mois ? Si vous ne pouvez pas répondre à cette question avec un chiffre précis, le déploiement est prématuré.
La majorité des implémentations agentiques qui échouent n'échouent pas techniquement. Elles échouent parce que les équipes contournent les nouveaux outils, les utilisent à moitié, ou continuent en parallèle avec les anciennes méthodes. L'agent est déployé. La transformation, non.
Ce qui change pour les collaborateurs. Le McKinsey Global AI Survey 2025 est explicite : dans les organisations en couche A, les travailleurs du savoir deviennent des gestionnaires d'agents. Leur travail change de nature — moins d'exécution, plus de supervision, de définition des objectifs, de validation des sorties. C'est un glissement de compétences, pas une suppression de poste. Mais ce glissement doit être nommé, accompagné, et reconnu dans les descriptions de rôle.
Les résistances probables. Elles sont prévisibles et légitimes. Première résistance : "Je ne fais plus confiance aux sorties de l'agent." — résoudre avec des seuils de supervision clairs et des exemples documentés d'erreurs corrigées. Deuxième résistance : "C'est plus rapide de le faire moi-même." — vrai au départ, faux à l'échelle. Troisième résistance (la plus difficile) : "Mon expertise ne sert plus à rien." — répondre en montrant concrètement ce que l'agent ne peut pas faire et ce que l'humain supervise.
Dans une direction des opérations d'un grand groupe d'assurance, le déploiement d'un agent de gestion des réclamations simples a failli être abandonné à la semaine 6. Non pas parce que l'agent ne fonctionnait pas — il traitait 73% des cas correctement. Mais parce que les gestionnaires avaient peur d'être évalués sur les 27% d'erreurs plutôt que sur les 73% de réussite. La direction a résolu le problème en une décision : les erreurs de l'agent sont de la responsabilité du propriétaire du système, pas des gestionnaires qui le supervisent. Deux semaines plus tard, les résistances avaient disparu.
Ce que le dirigeant doit anticiper. Trois actions concrètes avant tout déploiement agentique : nommer un champion interne (Section 05, Niveau 2), définir explicitement les nouveaux rôles de supervision, et prévoir une période de double-run (agent + méthode manuelle en parallèle) d'au moins 30 jours pour construire la confiance dans les sorties.
Un dossier qui se termine par des recommandations générales est un dossier qu'on range. Celui-ci se termine par cinq décisions que vous pouvez prendre cette semaine — sans budget supplémentaire, sans validation externe.
L'IA agentique n'est pas une technologie réservée aux grandes organisations avec des budgets démesurés. C'est une capacité qui arrive dans vos outils, que vous l'ayez planifié ou non. La question n'est pas de savoir si vous allez la rencontrer — c'est de savoir si vous allez la subir ou la piloter.
Les organisations qui obtiennent des résultats aujourd'hui partagent une caractéristique : elles ont commencé petit, mesuré vite, et élargi méthodiquement. Elles ne cherchaient pas la transformation globale. Elles cherchaient le premier cas d'usage gagnable.
Prochain dossier — #-1 · Mars 2026 · Le ROI de l'IA : mesurer ce qu'on ne sait pas mesurer — les deux côtés de l'équation.
Ce qui m'a le plus frappé en préparant ce dossier, ce n'est pas la technologie. C'est la vitesse à laquelle la question de la valeur est devenue concrète et chiffrée. Le précédent KPMG–Grant Thornton n'était pas prévisible il y a dix-huit mois. Il l'est maintenant. Et ce qui m'intéresse dans les prochains mois, c'est la suite : qui dans votre organisation aura le mandat de poser cette question à vos propres fournisseurs — et qui sera capable d'y répondre quand vos clients vous la poseront ?
Ce sont les questions Le dossier de mars creuse la question du ROI réel de l'IA — parce qu'on ne peut pas gouverner ce qu'on ne sait pas mesurer. Et le dossier d'avril donne le cadre opérationnel complet : la gouvernance IA en 90 jours, pour les organisations qui ont décidé de ne plus improviser. Je lis chaque réponse que vous m'envoyez — elles orientent ce que j'écris.
Vingt ans à observer les organisations en transformation. Je traduis chaque semaine l'actualité IA en décisions concrètes pour les organisations opérant en Europe et en Amérique du Nord — avec les Cadres LEAP™ et DRIVEN™ comme outils de lecture.