Il y a un angle mort dans presque tous les projets d'IA en entreprise aujourd'hui. On parle de construire des agents, d'automatiser des workflows, de réduire les temps de traitement. Très rarement, on parle de ce qui se passe quand ces agents font quelque chose d'inattendu — une hallucination, une dérive de comportement, une décision qui sort du cadre prévu.
Dans un système avec un seul agent sur un use case délimité, ça reste gérable. Mais on n'en est plus là. Les entreprises qui ont commencé en 2024-2025 vont avoir des dizaines d'agents opérationnels d'ici 18 mois. Des agents qui interagissent entre eux. Des agents qui prennent des décisions avec des impacts réels — sur des clients, des données financières, des flux de production.
À ce stade, l'absence de gouvernance n'est plus un risque théorique. C'est une bombe à retardement.
Pour comprendre où se situe la tour de contrôle, il faut d'abord cartographier le chemin. L'IA en entreprise ne passe pas directement de "zéro" à "agents autonomes" — c'est un continuum en quatre étapes, et la plupart des organisations n'en sont qu'à la deuxième.
Nous sommes à la jonction entre les étapes 2 et 3. Et c'est exactement là que le problème de gouvernance devient urgent — pas à l'étape 4, trop lointaine pour être concrète, mais maintenant, pendant qu'on construit encore.
« On ne construit pas une centrale nucléaire sans salle de contrôle. On ne devrait pas déployer des agents IA sans leur équivalent. »
Imaginez ce scénario, pas si futuriste : votre agent de gestion des relances envoie un email à un client avec une information incorrecte — une date, un montant, un statut. L'information était dans son contexte, mais il l'a mal interprétée. Résultat : le client réagit, votre équipe doit gérer la crise, et quelqu'un passe du temps à comprendre ce qui s'est passé.
Maintenant multipliez par cinq agents. Par dix. Par vingt, dans des domaines différents — finance, opérations, communication client, conformité.
Le problème n'est pas l'agent isolé qui se trompe. Le problème, c'est qu'il n'existe aucun système centralisé pour détecter la dérive, qualifier l'erreur, isoler l'agent et retracer la décision. Chaque équipe gère son propre agent dans son propre silo. Et personne n'a une vue d'ensemble.
C'est ça, le vide de gouvernance. Et il a trois dimensions concrètes.
L'hallucination ponctuelle — une erreur franche, visible, récupérable si on la détecte rapidement. C'est le risque le plus médiatisé, mais paradoxalement le plus gérable.
La dérive comportementale — bien plus insidieuse. L'agent ne se trompe pas franchement. Il dérive progressivement, décision après décision, vers un comportement qui n'est plus aligné avec ce qu'on avait prévu. Aucune alerte ne se déclenche. Aucun seuil n'est franchi. Et pourtant, six mois plus tard, on réalise que l'agent fait quelque chose de fondamentalement différent de ce pourquoi il avait été conçu.
L'effet de cascade — spécifique aux architectures multi-agents. Un agent A produit une sortie légèrement incorrecte. L'agent B la consomme et amplifie l'erreur. L'agent C génère une action irréversible basée sur cette erreur amplifiée. En termes de risque, c'est l'équivalent d'un bug en production dans une architecture microservices — sauf que les "services" prennent des décisions.
Une tour de contrôle IA n'est pas un dashboard de monitoring. Ce n'est pas non plus un simple système de logs. C'est une couche active de gouvernance qui surveille, qualifie, intervient, et documente — en temps réel.
Voici à quoi ressemblent ses logs pendant une période ordinaire :
Ce log illustre trois fonctions fondamentales de la tour : la détection continue (surveillance du scoring comportemental en temps réel), l'isolation chirurgicale (un seul agent suspendu, le reste continue de tourner), et la traçabilité complète (chaque décision, humaine ou automatique, est horodatée et archivée).
La tour de contrôle n'est pas un outil monolithique. C'est une architecture en couches, chacune avec une responsabilité claire.
La détection d'hallucination n'est pas triviale. Un LLM ne "sait pas" qu'il hallucine — il produit sa sortie avec le même niveau de confiance apparent, qu'elle soit correcte ou inventée. La tour ne peut pas interroger l'agent sur sa certitude. Elle doit inférer.
En pratique, plusieurs signaux peuvent être combinés pour construire un score de fiabilité.
Aucun de ces signaux n'est infaillible seul. Combinés en score pondéré, calibré sur la criticité métier de l'agent, ils donnent une couverture réaliste — pas parfaite, mais suffisante pour sortir du mode "on découvre les problèmes quand le client appelle".
L'hallucination franche est visible. La dérive lente ne l'est pas. C'est le scénario où l'agent produit des sorties correctes individuellement, mais dont le comportement agrégé, sur des semaines ou des mois, s'écarte progressivement de ce qui était attendu.
Un agent de communication qui commence à utiliser un registre de plus en plus formel. Un agent de classification qui dérive vers une catégorie plus que les autres. Un agent de synthèse qui progressivement omet certains types d'information dans ses résumés.
Aucune alerte ne se déclenche parce qu'aucun seuil n'est franchi à un instant t. C'est la somme des petits écarts qui crée le problème — et c'est invisible sans analyse longitudinale.
La tour doit donc maintenir des profils comportementaux dans le temps — pas seulement évaluer chaque sortie en isolation, mais comparer la distribution des sorties récentes aux distributions historiques validées. Dès qu'une dérive statistiquement significative est détectée, l'alerte se déclenche — même si aucune sortie individuelle n'est manifestement incorrecte.
Écrire un article sur la tour de contrôle sans parler de ses limites actuelles serait malhonnête. Il y a des problèmes que la gouvernance actuelle ne résout pas — pas encore.
Surveiller la tour elle-même. Si la tour de contrôle est elle-même un système IA — ou intègre des composants IA pour la qualification automatique des alertes — qui la surveille ? Le problème de gouvernance se déplace d'un niveau. La réponse honnête aujourd'hui : la couche de gouvernance humaine doit rester majoritairement humaine, précisément pour éviter cette régression infinie.
Auditer une décision vraiment autonome. On sait logger une sortie. On sait noter que telle entrée a produit telle sortie. Ce qu'on ne sait pas encore faire de façon fiable, c'est expliquer pourquoi — reconstruire le raisonnement interne d'un LLM de façon interprétable. L'explainability reste un problème ouvert, et c'est un vrai angle mort pour la conformité réglementaire.
Calibrer les seuils sans faux positifs excessifs. Un scoring comportemental trop sensible paralyse les agents sur des faux positifs. Trop permissif, il rate les vraies anomalies. Calibrer ces seuils demande du terrain — des données réelles, des retours humains, des itérations. Il n'existe pas de seuil universel.
Il y a une résistance naturelle dans les équipes qui construisent des agents : la gouvernance est perçue comme un frein, une couche administrative qui ralentit l'innovation. C'est l'inverse.
Sans confiance dans le comportement des agents, les organisations vont plafonner à l'étape 2 — automatisation de tâches isolées, sous supervision humaine constante. C'est utile. Mais c'est loin du potentiel réel.
Ce qui permet de passer à l'étape 3 — des agents qui orchestrent d'autres agents, qui opèrent sur des horizons de temps plus longs, qui prennent des décisions avec un impact réel — c'est précisément d'avoir une infrastructure de gouvernance solide en dessous. Pas pour bloquer l'autonomie, mais pour la rendre justifiable, auditable, et réversible.
La question que je me pose cette année n'est plus "comment je construis mon prochain agent ?" Elle est : "est-ce que je construis en même temps l'infrastructure qui me permettra de leur faire confiance ?"

Je construis des agents IA pour automatiser les opérations MFT chez Lazard — rotation de clés, onboarding, relances. Ces articles documentent l'architecture, les problèmes réels, et les questions que le terrain soulève. La tour de contrôle est le chantier d'après.
There's a blind spot in almost every enterprise AI project today. Everyone talks about building agents, automating workflows, cutting processing time. Very rarely does anyone talk about what happens when those agents do something unexpected — a hallucination, a behavioral drift, a decision that falls outside the intended boundaries.
With a single agent on a well-defined use case, that's still manageable. But we're past that point. Companies that started in 2024-2025 will have dozens of operational agents within 18 months. Agents interacting with each other. Agents making decisions with real consequences — on clients, financial data, production flows.
At that scale, the absence of governance is no longer a theoretical risk. It's a ticking clock.
To understand where a control tower fits, you first need to map the journey. Enterprise AI doesn't jump directly from "zero" to "autonomous agents" — it's a four-stage continuum, and most organizations are still at stage two.
We're at the junction between stages 2 and 3. That's exactly where the governance problem becomes urgent — not at stage 4, too distant to be concrete, but now, while we're still building.
« You don't build a nuclear plant without a control room. You shouldn't deploy AI agents without the equivalent. »
Picture this scenario, not so futuristic: your follow-up management agent sends a client an email with incorrect information — a date, an amount, a status. The information was in its context, but it misinterpreted it. Result: the client reacts, your team manages the fallout, and someone spends time reconstructing what happened.
Now multiply by five agents. By ten. By twenty, across different domains — finance, operations, client communication, compliance.
The problem isn't the isolated agent making a mistake. The problem is that no centralized system exists to detect the drift, qualify the error, isolate the agent, and trace the decision. Every team manages its own agent in its own silo. And nobody has the full picture.
That's the governance gap. It has three concrete dimensions.
The one-off hallucination — a clear, visible error, recoverable if caught quickly. The most publicized risk, but paradoxically the most manageable.
Behavioral drift — far more insidious. The agent doesn't make an obvious mistake. It drifts progressively, decision after decision, toward behavior that no longer aligns with what was designed. No alert fires. No threshold is crossed. And yet, six months later, you realize the agent is doing something fundamentally different from what it was built for.
The cascade effect — specific to multi-agent architectures. Agent A produces a slightly incorrect output. Agent B consumes it and amplifies the error. Agent C triggers an irreversible action based on that amplified error. In risk terms, it's the equivalent of a production bug in a microservices architecture — except the "services" are making decisions.
An AI control tower isn't a monitoring dashboard. It's not just a logging system either. It's an active governance layer that observes, qualifies, intervenes, and documents — in real time.
Here's what its logs look like during an ordinary period:
This log illustrates three core functions of the tower: continuous detection (real-time behavioral scoring), surgical isolation (one agent suspended, the rest keep running), and complete traceability (every decision, human or automated, timestamped and archived).
The control tower isn't a monolithic tool. It's a layered architecture, each layer with a clear responsibility.
Hallucination detection isn't trivial. An LLM doesn't "know" it's hallucinating — it produces its output with the same apparent confidence level whether it's correct or invented. The tower can't ask the agent how certain it is. It has to infer.
In practice, several signals can be combined to build a reliability score.
A clear hallucination is visible. Slow drift is not. It's the scenario where the agent produces individually correct outputs, but whose aggregated behavior, over weeks or months, gradually diverges from what was expected.
A communication agent that starts using increasingly formal language. A classification agent that drifts toward one category more than others. A summary agent that progressively omits certain types of information.
No alert fires because no threshold is crossed at time t. It's the sum of small deviations that creates the problem — and it's invisible without longitudinal analysis.
The tower must therefore maintain behavioral profiles over time — not just evaluate each output in isolation, but compare the distribution of recent outputs against validated historical distributions. When a statistically significant drift is detected, the alert fires — even if no individual output is manifestly incorrect.
Writing an article on the control tower without addressing its current limits would be dishonest. Some problems current governance doesn't solve — not yet.
Watching the tower itself. If the control tower is itself an AI system — or integrates AI components for automatic alert qualification — who watches it? The governance problem shifts up one level. The honest answer today: the human governance layer must remain largely human, precisely to avoid this infinite regression.
Auditing a truly autonomous decision. We know how to log an output. We know that this input produced that output. What we don't yet reliably know how to do is explain why — reconstruct an LLM's internal reasoning in an interpretable way. Explainability remains an open problem, and it's a real blind spot for regulatory compliance.
Calibrating thresholds without excessive false positives. A behavioral scoring system that's too sensitive paralyzes agents with false positives. Too permissive and it misses real anomalies. Calibration requires real-world data, human feedback, and iteration. There is no universal threshold.
There's a natural resistance in teams building agents: governance is perceived as friction, an administrative layer that slows innovation. It's the opposite.
Without trust in agent behavior, organizations will plateau at stage 2 — automating isolated tasks under constant human supervision. That's useful. But it's far from the real potential.
What enables the move to stage 3 — agents orchestrating other agents, operating over longer time horizons, making decisions with real impact — is precisely having solid governance infrastructure underneath. Not to block autonomy, but to make it justifiable, auditable, and reversible.
The question I ask myself this year is no longer "how do I build my next agent?" It's: "am I building, at the same time, the infrastructure that will let me trust them?"

I build AI agents to automate MFT operations at Lazard — key rotation, onboarding, follow-ups. These articles document the architecture, the real problems, and the questions that emerge from the field. The control tower is the next build.