Ce n'est pas un hasard. Quand on définit un agent IA — son périmètre d'action, ses règles de décision, ses escalades obligatoires, ses horaires d'activité — on fait exactement ce qu'un DRH fait quand il recrute : on définit un rôle, ses responsabilités, et les conditions d'exercice.
La différence, aujourd'hui, c'est qu'on le fait de façon informelle, dans un prompt système, sans cadre, sans traçabilité, sans processus commun d'une organisation à l'autre. Dans cinq ans, je ne crois pas que ce soit tenable.
Cet article est une projection. Pas une prédiction — une extrapolation raisonnée de là où mènent les tendances actuelles : l'AI Act européen, la multiplication des agents en production, l'émergence des tours de contrôle, et la question qui s'impose progressivement à toutes les équipes qui opèrent des agents : comment on gère ça, vraiment, à l'échelle ?
Voici ce que pourrait ressembler le recrutement d'un agent spécialisé dans un contexte MFT, dans un horizon de trois à cinq ans. Pas une parodie — un document de travail sérieux, avec les mêmes exigences qu'on appliquerait à un prestataire humain.
Ce document n'existe pas encore dans ce format standardisé. Mais chaque ligne correspond à quelque chose que j'ai déjà écrit quelque part — dans un prompt, dans une documentation technique, dans une note à la RSSI. La fiche de poste, c'est juste la formalisation de ce qu'on fait déjà de façon éparpillée.
Une entreprise avec dix agents peut les suivre dans un tableau. Avec cinquante, ça devient un problème de gestion. Avec deux cents — ce qui est réaliste d'ici trois ans pour une grande organisation — il faut un outil dédié.
Les CRM RH existent pour gérer les collaborateurs humains : historique, performance, formation, contrats. La logique d'un CRM pour agents IA n'est pas fondamentalement différente.
Ce que ce CRM rend possible, ce n'est pas juste du monitoring. C'est une mémoire institutionnelle des agents — l'historique de leurs décisions, de leurs incidents, de leurs évolutions. Quand un agent est remplacé, mis à jour, ou simplement questionné par un auditeur, cette traçabilité devient indispensable.
« Un agent sans historique, c'est un prestataire sans CV, sans références, et sans contrat signé. Vous lui confieriez l'accès à vos systèmes de production ? »
On a tendance à traiter la gouvernance des agents IA comme un sujet futur. C'est une erreur. Le cadre réglementaire est déjà partiellement en place — et il va s'accélérer.
C'est la proposition la plus provocante de cet article, et pourtant celle qui me semble la plus logique une fois qu'on y réfléchit sérieusement.
Un agent IA qui tourne 24h/24, 7j/7, sans interruption, sans mise à jour, sans révision — c'est un risque opérationnel. Les modèles évoluent. Les contextes changent. Ce qui était un comportement correct en janvier peut devenir problématique en juin si le contexte métier a changé et que personne n'a mis à jour les règles de l'agent.
Les infrastructures critiques ont des fenêtres de maintenance obligatoires. Les pilotes d'avion ont des limites de temps de vol. Les médicaments ont des dates de péremption. Ces contraintes existent parce qu'on a appris — parfois douloureusement — que l'absence d'interruption forcée est un vecteur de risque systémique.
Un agent IA en production continue sans révision, c'est le même problème. La dérive comportementale que j'évoquais dans l'article sur la tour de contrôle est précisément amplifiée par l'absence de points d'arrêt forcés.
Ce parallèle n'est pas une métaphore poétique. C'est une grille de lecture opérationnelle. Chaque contrainte qui s'applique au collaborateur humain a une raison d'être — protéger l'organisation, l'individu, et les tiers. Ces mêmes raisons s'appliquent aux agents autonomes.
Tout le monde parle de déployer des agents. Presque personne ne parle de les retirer.
Pourtant, le cycle de vie d'un agent inclut nécessairement sa fin. Le modèle sous-jacent devient obsolète. Le use case disparaît. L'organisation change. La réglementation évolue. Et là, concrètement, que fait-on ?
Le décommissionnement d'un agent devrait être aussi formalisé que son onboarding. Un rapport de fin de mission. Un archivage des logs. Une revue des décisions prises. Et, si l'agent est remplacé, un plan de transition qui préserve la continuité opérationnelle.
Cette projection ne vise pas à effrayer. Elle vise à orienter. Si la direction est celle que je décris — et je pense qu'elle l'est, même si le calendrier est incertain — alors certaines décisions qu'on prend aujourd'hui dans la construction des agents ont des implications durables.
Ces trois articles — l'onboarding agent-à-agent, la tour de contrôle, et maintenant cette projection sur le statut des agents — convergent vers la même question fondamentale : à qui, et à quoi, sommes-nous prêts à déléguer des décisions réelles ?
La réponse n'est pas technique. Elle est organisationnelle, éthique, et réglementaire. La technologie, elle, est déjà là — ou presque. Ce qui n'est pas prêt, dans la plupart des organisations, c'est le cadre qui permet de lui faire confiance sans naïveté.
Construire un agent sans penser à sa gouvernance, c'est recruter sans contrat. Ça fonctionne tant que tout va bien. Le jour où ça se complique, l'absence de cadre amplifie chaque problème.
Je construis mon premier agent en ce moment. Et la question que je me pose chaque semaine n'est plus "est-ce que ça marche ?" Elle est : "est-ce que je serai capable d'expliquer ce qu'il a fait, pourquoi, et ce que j'ai fait pour m'en assurer ?"
Si la réponse est oui, on peut avancer.

Cette série de trois articles — onboarding agent-à-agent, tour de contrôle, et statut des agents — explore où mène logiquement ce qu'on construit aujourd'hui. Pas des prédictions. Des extrapolations ancrées dans le terrain.
That's no coincidence. When you define an AI agent — its action scope, its decision rules, its mandatory escalations, its active hours — you're doing exactly what an HR director does when recruiting: defining a role, its responsibilities, and the conditions of practice.
The difference today is that we're doing it informally, inside a system prompt, without any framework, without traceability, without shared process across organizations. In five years, I don't think that's sustainable.
This article is a projection. Not a prediction — a reasoned extrapolation of where current trends lead: the European AI Act, the proliferation of agents in production, the emergence of control towers, and the question that is gradually imposing itself on every team operating agents: how do we actually manage this, at scale?
Here's what recruiting a specialized agent might look like in an MFT context, three to five years from now. Not a parody — a serious working document, with the same rigor you'd apply to a human contractor.
This document doesn't exist in this standardized format yet. But every line corresponds to something I've already written somewhere — in a prompt, in technical documentation, in a note to the CISO. The job description is just the formalization of what we're already doing in scattered pieces.
A company with ten agents can track them in a spreadsheet. With fifty, it becomes a management problem. With two hundred — which is realistic within three years for a large organization — you need a dedicated tool.
HR CRMs exist to manage human employees: history, performance, training, contracts. The logic of an agent CRM isn't fundamentally different.
What this CRM enables isn't just monitoring. It's an institutional memory of agents — the history of their decisions, incidents, and evolutions. When an agent is replaced, updated, or questioned by an auditor, this traceability becomes indispensable.
« An agent without a history is a contractor with no CV, no references, and no signed contract. Would you give them access to your production systems? »
There's a tendency to treat AI agent governance as a future topic. That's a mistake. The regulatory framework is already partially in place — and it's accelerating.
This is the most provocative proposal in this article, and yet the one that seems most logical once you think it through seriously.
An AI agent running 24/7, without interruption, without updates, without review — that's an operational risk. Models evolve. Contexts change. What was correct behavior in January can become problematic in June if the business context has shifted and nobody has updated the agent's rules.
Critical infrastructure has mandatory maintenance windows. Airline pilots have flight time limits. Medications have expiration dates. These constraints exist because we learned — sometimes painfully — that the absence of forced interruption is a vector of systemic risk.
An AI agent in continuous production without review is the same problem. The behavioral drift I described in the control tower article is precisely amplified by the absence of forced stopping points.
This parallel isn't poetic metaphor. It's an operational framework. Every constraint that applies to a human employee exists for a reason — protecting the organization, the individual, and third parties. Those same reasons apply to autonomous agents.
Everyone talks about deploying agents. Almost nobody talks about retiring them.
And yet, an agent's lifecycle necessarily includes its end. The underlying model becomes obsolete. The use case disappears. The organization changes. Regulation evolves. And then, concretely, what do you do?
Decommissioning an agent should be as formalized as its onboarding. An end-of-mission report. Log archiving. A review of decisions made. And, if the agent is being replaced, a transition plan that preserves operational continuity.
This projection isn't meant to frighten. It's meant to orient. If the direction is what I describe — and I believe it is, even if the timeline is uncertain — then some decisions we're making today in building agents have lasting implications.
These three articles — agent-to-agent onboarding, the control tower, and now this projection on agent status — converge on the same fundamental question: to whom, and to what, are we willing to delegate real decisions?
The answer isn't technical. It's organizational, ethical, and regulatory. The technology, for its part, is already here — or nearly. What isn't ready, in most organizations, is the framework that allows us to trust it without naivety.
Building an agent without thinking about its governance is like hiring without a contract. It works as long as everything goes well. The day things get complicated, the absence of a framework amplifies every problem.
I'm building my first agent right now. And the question I ask myself every week is no longer "does it work?" It's: "will I be able to explain what it did, why, and what I did to ensure it?"
If the answer is yes, we can move forward.

This three-part series — agent-to-agent onboarding, control tower, and agent status — explores where what we're building today logically leads. Not predictions. Reasoned extrapolations grounded in field experience.