Gouvernance · Agents IA · Architecture · Prospective

De l'automatisation
à l'autonomie — la tour de contrôle IA

Automatiser un agent, c'est résoudre un problème. Déployer un parc d'agents sans gouvernance, c'est en créer dix nouveaux. La prochaine frontière de l'IA en entreprise n'est pas l'agent — c'est ce qui le surveille.

Photo de profil
Ismail Bouchkhi
Consultant Expert MFT · Lazard Frères · Paris
Mars 2026  ·  11 min de lecture
Je construis mon premier agent IA depuis plusieurs mois. Et plus il avance, plus une question s'impose : qui le surveille, lui ? Pas moi — je ne peux pas être derrière chaque décision. Pas personne — c'est là le problème.

Il y a un angle mort dans presque tous les projets d'IA en entreprise aujourd'hui. On parle de construire des agents, d'automatiser des workflows, de réduire les temps de traitement. Très rarement, on parle de ce qui se passe quand ces agents font quelque chose d'inattendu — une hallucination, une dérive de comportement, une décision qui sort du cadre prévu.

Dans un système avec un seul agent sur un use case délimité, ça reste gérable. Mais on n'en est plus là. Les entreprises qui ont commencé en 2024-2025 vont avoir des dizaines d'agents opérationnels d'ici 18 mois. Des agents qui interagissent entre eux. Des agents qui prennent des décisions avec des impacts réels — sur des clients, des données financières, des flux de production.

À ce stade, l'absence de gouvernance n'est plus un risque théorique. C'est une bombe à retardement.

Opérateur devant des écrans de supervision — tour de contrôle IA
Superviser des agents autonomes : le défi n'est plus technique, il est de gouvernance.

Le continuum : où en sommes-nous ?

Pour comprendre où se situe la tour de contrôle, il faut d'abord cartographier le chemin. L'IA en entreprise ne passe pas directement de "zéro" à "agents autonomes" — c'est un continuum en quatre étapes, et la plupart des organisations n'en sont qu'à la deuxième.

Étape 1
Assistance
L'IA suggère, l'humain décide et exécute
Étape 2 — aujourd'hui
Automatisation
L'IA exécute des tâches délimitées sous supervision

Nous sommes à la jonction entre les étapes 2 et 3. Et c'est exactement là que le problème de gouvernance devient urgent — pas à l'étape 4, trop lointaine pour être concrète, mais maintenant, pendant qu'on construit encore.

« On ne construit pas une centrale nucléaire sans salle de contrôle. On ne devrait pas déployer des agents IA sans leur équivalent. »

Le vide de gouvernance — pourquoi c'est un risque systémique

Imaginez ce scénario, pas si futuriste : votre agent de gestion des relances envoie un email à un client avec une information incorrecte — une date, un montant, un statut. L'information était dans son contexte, mais il l'a mal interprétée. Résultat : le client réagit, votre équipe doit gérer la crise, et quelqu'un passe du temps à comprendre ce qui s'est passé.

Maintenant multipliez par cinq agents. Par dix. Par vingt, dans des domaines différents — finance, opérations, communication client, conformité.

Le problème n'est pas l'agent isolé qui se trompe. Le problème, c'est qu'il n'existe aucun système centralisé pour détecter la dérive, qualifier l'erreur, isoler l'agent et retracer la décision. Chaque équipe gère son propre agent dans son propre silo. Et personne n'a une vue d'ensemble.

C'est ça, le vide de gouvernance. Et il a trois dimensions concrètes.

L'hallucination ponctuelle — une erreur franche, visible, récupérable si on la détecte rapidement. C'est le risque le plus médiatisé, mais paradoxalement le plus gérable.

La dérive comportementale — bien plus insidieuse. L'agent ne se trompe pas franchement. Il dérive progressivement, décision après décision, vers un comportement qui n'est plus aligné avec ce qu'on avait prévu. Aucune alerte ne se déclenche. Aucun seuil n'est franchi. Et pourtant, six mois plus tard, on réalise que l'agent fait quelque chose de fondamentalement différent de ce pourquoi il avait été conçu.

L'effet de cascade — spécifique aux architectures multi-agents. Un agent A produit une sortie légèrement incorrecte. L'agent B la consomme et amplifie l'erreur. L'agent C génère une action irréversible basée sur cette erreur amplifiée. En termes de risque, c'est l'équivalent d'un bug en production dans une architecture microservices — sauf que les "services" prennent des décisions.

Ce que fait une tour de contrôle IA — concrètement

Une tour de contrôle IA n'est pas un dashboard de monitoring. Ce n'est pas non plus un simple système de logs. C'est une couche active de gouvernance qui surveille, qualifie, intervient, et documente — en temps réel.

Voici à quoi ressemblent ses logs pendant une période ordinaire :

ControlTower · Runtime Log · 2026-03-14
09:14:03
[TOWER]
Agent-SFTP-Rotation → cycle nominal. 4 rotations exécutées. Scoring comportemental : 0.97/1.00. Aucune anomalie détectée.
09:31:18
[TOWER]
Agent-Onboarding → email initiation envoyé à 3 nouvelles contreparties. Contenu validé. Templates conformes. Aucune dérive de formulation.
10:02:47
[TOWER · WARN]
Agent-Relance → détection d'une formulation inhabituelle dans le brouillon #A-4421. Confiance sortie : 0.71 (seuil : 0.80). Mise en file de validation humaine.
10:03:01
[TOWER]
Notification envoyée à l'opérateur de garde. SLA validation : 15 min. Agent-Relance en mode pause partielle (emails urgents uniquement).
10:14:33
[HUMAN · IB]
Validation brouillon #A-4421 — reformulation approuvée. Agent-Relance : reprise du mode nominal. Cas archivé pour retraining.
11:55:09
[TOWER · ERR]
Agent-Conformité → hallucination détectée. Sortie contient référence réglementaire inexistante (DORA Art. 47-bis). Score cohérence : 0.34. Isolation immédiate.
11:55:09
[TOWER · KILL]
Agent-Conformité → état SUSPENDED. Toutes les sorties pendantes bloquées. Snapshot contexte sauvegardé. Escalade vers RSSI en cours.
11:57:44
[TOWER]
Diagnostic automatique : root cause probable → drift du prompt système après mise à jour du 12/03. Comparaison versions en cours.
14:22:11
[HUMAN · RSSI]
Agent-Conformité → prompt restauré v2.4.1. Tests de régression : OK (12/12). Réactivation autorisée. Mode observé pendant 48h.
14:22:14
[TOWER]
Agent-Conformité → état ACTIVE (mode supervised). Monitoring renforcé actif. Prochain scoring comportemental : T+1h.

Ce log illustre trois fonctions fondamentales de la tour : la détection continue (surveillance du scoring comportemental en temps réel), l'isolation chirurgicale (un seul agent suspendu, le reste continue de tourner), et la traçabilité complète (chaque décision, humaine ou automatique, est horodatée et archivée).

L'architecture — quatre couches, une seule responsabilité

La tour de contrôle n'est pas un outil monolithique. C'est une architecture en couches, chacune avec une responsabilité claire.

Architecture · Tour de Contrôle IA
Couche 1
Observation
Collecte en temps réel de toutes les entrées/sorties des agents. Scoring comportemental continu basé sur des métriques de cohérence, de confiance et d'alignement avec les règles métier définies. Détection des patterns anormaux avant qu'ils deviennent des erreurs.
Couche 2
Qualification
Classification automatique des alertes : avertissement (humain notifié, agent continue), anomalie (validation requise avant toute sortie), erreur critique (isolation immédiate). Chaque niveau a un SLA de réponse humaine défini. Pas d'escalade infinie — chaque alerte a un propriétaire.
Couche 3
Intervention
Actions sur le cycle de vie des agents : pause partielle, suspension, restauration d'une version antérieure, rollback de prompt, activation d'un agent de backup. La tour peut intervenir en millisecondes — sans attendre une action humaine pour les cas critiques pré-définis.
Couche 4
Gouvernance humaine
Interface de décision pour les opérateurs et la RSSI. Toutes les décisions de réactivation, de modification de règles, et de changement de seuils passent par un humain. La tour propose, l'humain valide. L'inverse — la tour agit, l'humain audite a posteriori — est réservé aux situations d'urgence pré-autorisées.
< 1s
Détection → isolation
100%
Décisions tracées
0
Agents sans propriétaire

Les signaux d'hallucination — comment les détecter avant l'impact

La détection d'hallucination n'est pas triviale. Un LLM ne "sait pas" qu'il hallucine — il produit sa sortie avec le même niveau de confiance apparent, qu'elle soit correcte ou inventée. La tour ne peut pas interroger l'agent sur sa certitude. Elle doit inférer.

En pratique, plusieurs signaux peuvent être combinés pour construire un score de fiabilité.

Signaux de détection
  • Références vérifiables — toute citation de document, réglementation, article, ou donnée factuelle peut être cross-vérifiée automatiquement contre une base de référence. Une référence introuvable est un signal fort.
  • Cohérence interne — une sortie qui se contredit elle-même, ou qui contredit une sortie précédente du même agent sur le même contexte, déclenche une alerte.
  • Distance sémantique — si la sortie dérive significativement du champ sémantique attendu pour ce type de tâche, c'est mesurable. Un agent de relance qui produit du contenu à tonalité juridique est statistiquement anormal.
  • Scoring de confiance contextuel — certains LLMs exposent des probabilités token par token. Quand la confiance moyenne d'une sortie tombe sous un seuil, l'alerte se déclenche, indépendamment du contenu apparent.
  • Feedback humain historique — chaque correction humaine alimente un modèle de détection. La tour apprend ce qui a déjà été considéré comme une erreur pour ce contexte spécifique.

Aucun de ces signaux n'est infaillible seul. Combinés en score pondéré, calibré sur la criticité métier de l'agent, ils donnent une couverture réaliste — pas parfaite, mais suffisante pour sortir du mode "on découvre les problèmes quand le client appelle".

La dérive lente — le risque invisible

L'hallucination franche est visible. La dérive lente ne l'est pas. C'est le scénario où l'agent produit des sorties correctes individuellement, mais dont le comportement agrégé, sur des semaines ou des mois, s'écarte progressivement de ce qui était attendu.

Un agent de communication qui commence à utiliser un registre de plus en plus formel. Un agent de classification qui dérive vers une catégorie plus que les autres. Un agent de synthèse qui progressivement omet certains types d'information dans ses résumés.

Aucune alerte ne se déclenche parce qu'aucun seuil n'est franchi à un instant t. C'est la somme des petits écarts qui crée le problème — et c'est invisible sans analyse longitudinale.

La tour doit donc maintenir des profils comportementaux dans le temps — pas seulement évaluer chaque sortie en isolation, mais comparer la distribution des sorties récentes aux distributions historiques validées. Dès qu'une dérive statistiquement significative est détectée, l'alerte se déclenche — même si aucune sortie individuelle n'est manifestement incorrecte.

Risques sans gouvernance
  • Un agent dérive pendant des semaines avant que quelqu'un remarque — les décisions prises dans l'intervalle sont impossibles à auditer
  • Une mise à jour de prompt corrige un problème et en crée un autre — sans versioning et rollback automatique, impossible de revenir en arrière proprement
  • Deux agents s'alimentent mutuellement en erreurs dans une architecture multi-agents — l'effet de cascade est non détectable sans vue transversale
  • Un agent critique est désactivé manuellement en urgence — sans procédure de restauration, la reprise prend des heures plutôt que des secondes
  • Personne ne peut répondre à "quelle décision cet agent a-t-il prise le 12 mars à 11h35 et sur quelle base ?" — la traçabilité est inexistante

Ce qu'on ne sait pas encore faire

Écrire un article sur la tour de contrôle sans parler de ses limites actuelles serait malhonnête. Il y a des problèmes que la gouvernance actuelle ne résout pas — pas encore.

Surveiller la tour elle-même. Si la tour de contrôle est elle-même un système IA — ou intègre des composants IA pour la qualification automatique des alertes — qui la surveille ? Le problème de gouvernance se déplace d'un niveau. La réponse honnête aujourd'hui : la couche de gouvernance humaine doit rester majoritairement humaine, précisément pour éviter cette régression infinie.

Auditer une décision vraiment autonome. On sait logger une sortie. On sait noter que telle entrée a produit telle sortie. Ce qu'on ne sait pas encore faire de façon fiable, c'est expliquer pourquoi — reconstruire le raisonnement interne d'un LLM de façon interprétable. L'explainability reste un problème ouvert, et c'est un vrai angle mort pour la conformité réglementaire.

Calibrer les seuils sans faux positifs excessifs. Un scoring comportemental trop sensible paralyse les agents sur des faux positifs. Trop permissif, il rate les vraies anomalies. Calibrer ces seuils demande du terrain — des données réelles, des retours humains, des itérations. Il n'existe pas de seuil universel.

Ce qu'on peut construire aujourd'hui
  • Un registre centralisé de tous les agents en production — avec propriétaire, use case, seuils de tolérance, et version de prompt courante
  • Un système de logging structuré pour toutes les entrées/sorties, versioned et immuable
  • Des règles de qualification simples mais robustes : vérification de références, détection de tonalité hors champ, seuil de confiance minimum
  • Un protocole d'isolement et de restauration documenté — pas un kill switch panique, mais une procédure testée et répétable
  • Des profils comportementaux de base pour chaque agent, mis à jour hebdomadairement, avec alerte sur dérive statistique
· · ·
Point de vue

La tour de contrôle n'est pas une contrainte. C'est ce qui rend l'autonomie possible.

Il y a une résistance naturelle dans les équipes qui construisent des agents : la gouvernance est perçue comme un frein, une couche administrative qui ralentit l'innovation. C'est l'inverse.

Sans confiance dans le comportement des agents, les organisations vont plafonner à l'étape 2 — automatisation de tâches isolées, sous supervision humaine constante. C'est utile. Mais c'est loin du potentiel réel.

Ce qui permet de passer à l'étape 3 — des agents qui orchestrent d'autres agents, qui opèrent sur des horizons de temps plus longs, qui prennent des décisions avec un impact réel — c'est précisément d'avoir une infrastructure de gouvernance solide en dessous. Pas pour bloquer l'autonomie, mais pour la rendre justifiable, auditable, et réversible.

La question que je me pose cette année n'est plus "comment je construis mon prochain agent ?" Elle est : "est-ce que je construis en même temps l'infrastructure qui me permettra de leur faire confiance ?"

Gouvernance IA Tour de contrôle Agents autonomes Hallucination LLM Dérive comportementale HITL Architecture multi-agents Conformité
Photo de profil
Ismail Bouchkhi
Consultant Expert MFT · Lazard Frères Gestion · Paris

Je construis des agents IA pour automatiser les opérations MFT chez Lazard — rotation de clés, onboarding, relances. Ces articles documentent l'architecture, les problèmes réels, et les questions que le terrain soulève. La tour de contrôle est le chantier d'après.

Governance · AI Agents · Architecture · Prospective

From automation
to autonomy — the AI control tower

Building an agent solves one problem. Deploying a fleet of agents without governance creates ten new ones. The next frontier in enterprise AI isn't the agent — it's what watches over it.

Photo de profil
Ismail Bouchkhi
MFT Expert Consultant · Lazard Frères · Paris
March 2026  ·  11 min read
I've been building my first AI agent for several months. And the further it progresses, the more one question forces itself on me: who watches it? Not me — I can't be behind every decision. Nobody — that's precisely the problem.

There's a blind spot in almost every enterprise AI project today. Everyone talks about building agents, automating workflows, cutting processing time. Very rarely does anyone talk about what happens when those agents do something unexpected — a hallucination, a behavioral drift, a decision that falls outside the intended boundaries.

With a single agent on a well-defined use case, that's still manageable. But we're past that point. Companies that started in 2024-2025 will have dozens of operational agents within 18 months. Agents interacting with each other. Agents making decisions with real consequences — on clients, financial data, production flows.

At that scale, the absence of governance is no longer a theoretical risk. It's a ticking clock.

Operator monitoring screens — AI control tower
Supervising autonomous agents: the challenge is no longer technical — it's governance.

The continuum — where do we stand?

To understand where a control tower fits, you first need to map the journey. Enterprise AI doesn't jump directly from "zero" to "autonomous agents" — it's a four-stage continuum, and most organizations are still at stage two.

Stage 1
Assistance
AI suggests, humans decide and execute
Stage 2 — today
Automation
AI executes bounded tasks under supervision

We're at the junction between stages 2 and 3. That's exactly where the governance problem becomes urgent — not at stage 4, too distant to be concrete, but now, while we're still building.

« You don't build a nuclear plant without a control room. You shouldn't deploy AI agents without the equivalent. »

The governance gap — why it's a systemic risk

Picture this scenario, not so futuristic: your follow-up management agent sends a client an email with incorrect information — a date, an amount, a status. The information was in its context, but it misinterpreted it. Result: the client reacts, your team manages the fallout, and someone spends time reconstructing what happened.

Now multiply by five agents. By ten. By twenty, across different domains — finance, operations, client communication, compliance.

The problem isn't the isolated agent making a mistake. The problem is that no centralized system exists to detect the drift, qualify the error, isolate the agent, and trace the decision. Every team manages its own agent in its own silo. And nobody has the full picture.

That's the governance gap. It has three concrete dimensions.

The one-off hallucination — a clear, visible error, recoverable if caught quickly. The most publicized risk, but paradoxically the most manageable.

Behavioral drift — far more insidious. The agent doesn't make an obvious mistake. It drifts progressively, decision after decision, toward behavior that no longer aligns with what was designed. No alert fires. No threshold is crossed. And yet, six months later, you realize the agent is doing something fundamentally different from what it was built for.

The cascade effect — specific to multi-agent architectures. Agent A produces a slightly incorrect output. Agent B consumes it and amplifies the error. Agent C triggers an irreversible action based on that amplified error. In risk terms, it's the equivalent of a production bug in a microservices architecture — except the "services" are making decisions.

What a control tower actually does — concretely

An AI control tower isn't a monitoring dashboard. It's not just a logging system either. It's an active governance layer that observes, qualifies, intervenes, and documents — in real time.

Here's what its logs look like during an ordinary period:

ControlTower · Runtime Log · 2026-03-14
09:14:03
[TOWER]
Agent-SFTP-Rotation → nominal cycle. 4 rotations executed. Behavioral score: 0.97/1.00. No anomaly detected.
09:31:18
[TOWER]
Agent-Onboarding → initiation email sent to 3 new counterparts. Content validated. Templates compliant. No formulation drift.
10:02:47
[TOWER · WARN]
Agent-Followup → unusual phrasing detected in draft #A-4421. Output confidence: 0.71 (threshold: 0.80). Queued for human validation.
10:03:01
[TOWER]
Notification sent to on-call operator. Validation SLA: 15 min. Agent-Followup in partial pause mode (urgent emails only).
10:14:33
[HUMAN · IB]
Draft #A-4421 validated — rephrasing approved. Agent-Followup: resuming nominal mode. Case archived for retraining.
11:55:09
[TOWER · ERR]
Agent-Compliance → hallucination detected. Output references non-existent regulation (DORA Art. 47-bis). Coherence score: 0.34. Immediate isolation.
11:55:09
[TOWER · KILL]
Agent-Compliance → state: SUSPENDED. All pending outputs blocked. Context snapshot saved. Escalation to CISO in progress.
11:57:44
[TOWER]
Automatic diagnostic: probable root cause → system prompt drift after 03/12 update. Version comparison in progress.
14:22:11
[HUMAN · CISO]
Agent-Compliance → prompt restored v2.4.1. Regression tests: OK (12/12). Reactivation authorized. Supervised mode for 48h.
14:22:14
[TOWER]
Agent-Compliance → state: ACTIVE (supervised mode). Enhanced monitoring active. Next behavioral score: T+1h.

This log illustrates three core functions of the tower: continuous detection (real-time behavioral scoring), surgical isolation (one agent suspended, the rest keep running), and complete traceability (every decision, human or automated, timestamped and archived).

The architecture — four layers, one responsibility

The control tower isn't a monolithic tool. It's a layered architecture, each layer with a clear responsibility.

Architecture · AI Control Tower
Layer 1
Observation
Real-time collection of all agent inputs and outputs. Continuous behavioral scoring based on coherence, confidence, and alignment with defined business rules. Abnormal pattern detection before they become errors.
Layer 2
Qualification
Automatic alert classification: warning (human notified, agent continues), anomaly (validation required before any output), critical error (immediate isolation). Each level has a defined human response SLA. No infinite escalation — every alert has an owner.
Layer 3
Intervention
Actions on agent lifecycle: partial pause, suspension, restore to previous version, prompt rollback, backup agent activation. The tower can act in milliseconds — without waiting for human action in pre-defined critical cases.
Layer 4
Human governance
Decision interface for operators and CISO. All reactivation decisions, rule changes, and threshold adjustments go through a human. The tower proposes, the human validates. The inverse — tower acts, human audits after — is reserved for pre-authorized emergency situations.
< 1s
Detection → isolation
100%
Decisions traced
0
Agents without owner

Hallucination signals — detecting them before impact

Hallucination detection isn't trivial. An LLM doesn't "know" it's hallucinating — it produces its output with the same apparent confidence level whether it's correct or invented. The tower can't ask the agent how certain it is. It has to infer.

In practice, several signals can be combined to build a reliability score.

Detection signals
  • Verifiable references — any citation of a document, regulation, article, or factual data can be cross-checked automatically against a reference base. An unfindable reference is a strong signal.
  • Internal coherence — an output that contradicts itself, or contradicts a previous output from the same agent on the same context, triggers an alert.
  • Semantic distance — if output drifts significantly from the expected semantic field for that task type, it's measurable. A follow-up agent producing legal-toned content is statistically abnormal.
  • Contextual confidence scoring — some LLMs expose per-token probabilities. When the average confidence of an output falls below a threshold, the alert fires regardless of the apparent content.
  • Historical human feedback — every human correction feeds a detection model. The tower learns what has already been flagged as an error for that specific context.

Slow drift — the invisible risk

A clear hallucination is visible. Slow drift is not. It's the scenario where the agent produces individually correct outputs, but whose aggregated behavior, over weeks or months, gradually diverges from what was expected.

A communication agent that starts using increasingly formal language. A classification agent that drifts toward one category more than others. A summary agent that progressively omits certain types of information.

No alert fires because no threshold is crossed at time t. It's the sum of small deviations that creates the problem — and it's invisible without longitudinal analysis.

The tower must therefore maintain behavioral profiles over time — not just evaluate each output in isolation, but compare the distribution of recent outputs against validated historical distributions. When a statistically significant drift is detected, the alert fires — even if no individual output is manifestly incorrect.

Risks without governance
  • An agent drifts for weeks before anyone notices — decisions made in the interim are impossible to audit
  • A prompt update fixes one problem and creates another — without versioning and automatic rollback, reverting cleanly takes days
  • Two agents feed each other errors in a multi-agent architecture — the cascade effect is undetectable without a cross-agent view
  • A critical agent is manually killed in an emergency — without a restoration procedure, recovery takes hours instead of seconds
  • Nobody can answer "what decision did this agent make on March 12 at 11:35 AM and on what basis?" — traceability doesn't exist

What we don't yet know how to do

Writing an article on the control tower without addressing its current limits would be dishonest. Some problems current governance doesn't solve — not yet.

Watching the tower itself. If the control tower is itself an AI system — or integrates AI components for automatic alert qualification — who watches it? The governance problem shifts up one level. The honest answer today: the human governance layer must remain largely human, precisely to avoid this infinite regression.

Auditing a truly autonomous decision. We know how to log an output. We know that this input produced that output. What we don't yet reliably know how to do is explain why — reconstruct an LLM's internal reasoning in an interpretable way. Explainability remains an open problem, and it's a real blind spot for regulatory compliance.

Calibrating thresholds without excessive false positives. A behavioral scoring system that's too sensitive paralyzes agents with false positives. Too permissive and it misses real anomalies. Calibration requires real-world data, human feedback, and iteration. There is no universal threshold.

What you can build today
  • A centralized registry of all agents in production — with owner, use case, tolerance thresholds, and current prompt version
  • A structured logging system for all inputs/outputs, versioned and immutable
  • Simple but robust qualification rules: reference checking, out-of-field tone detection, minimum confidence threshold
  • A documented isolation and restoration protocol — not a panic kill switch, but a tested and repeatable procedure
  • Baseline behavioral profiles for each agent, updated weekly, with statistical drift alerts
· · ·
Point of view

The control tower isn't a constraint. It's what makes autonomy possible.

There's a natural resistance in teams building agents: governance is perceived as friction, an administrative layer that slows innovation. It's the opposite.

Without trust in agent behavior, organizations will plateau at stage 2 — automating isolated tasks under constant human supervision. That's useful. But it's far from the real potential.

What enables the move to stage 3 — agents orchestrating other agents, operating over longer time horizons, making decisions with real impact — is precisely having solid governance infrastructure underneath. Not to block autonomy, but to make it justifiable, auditable, and reversible.

The question I ask myself this year is no longer "how do I build my next agent?" It's: "am I building, at the same time, the infrastructure that will let me trust them?"

AI Governance Control Tower Autonomous Agents LLM Hallucination Behavioral Drift HITL Multi-agent Architecture Compliance
Photo de profil
Ismail Bouchkhi
MFT Expert Consultant · Lazard Frères Gestion · Paris

I build AI agents to automate MFT operations at Lazard — key rotation, onboarding, follow-ups. These articles document the architecture, the real problems, and the questions that emerge from the field. The control tower is the next build.

Agents IAAI Agents Tous les articlesAll articles IA RecrutementAI Hiring