Prospective · Gouvernance · Réglementation · Futur du travail

Et si l'IA devenait
un recrutement comme un autre ?

Des fiches de poste pour des agents. Des CRM pour les gérer. Une réglementation européenne pour les encadrer. Des temps d'arrêt obligatoires. Ce n'est pas de la science-fiction — c'est la direction logique de ce qu'on construit aujourd'hui.

Photo de profil
Ismail Bouchkhi
Consultant Expert MFT · Lazard Frères · Paris
Mars 2026  ·  12 min de lecture
La semaine dernière, j'ai passé deux heures à rédiger les spécifications de mon prochain agent. Ses responsabilités, ses limites, les conditions dans lesquelles il peut agir seul. En relisant, j'ai réalisé que ça ressemblait trait pour trait à une fiche de poste.

Ce n'est pas un hasard. Quand on définit un agent IA — son périmètre d'action, ses règles de décision, ses escalades obligatoires, ses horaires d'activité — on fait exactement ce qu'un DRH fait quand il recrute : on définit un rôle, ses responsabilités, et les conditions d'exercice.

La différence, aujourd'hui, c'est qu'on le fait de façon informelle, dans un prompt système, sans cadre, sans traçabilité, sans processus commun d'une organisation à l'autre. Dans cinq ans, je ne crois pas que ce soit tenable.

Cet article est une projection. Pas une prédiction — une extrapolation raisonnée de là où mènent les tendances actuelles : l'AI Act européen, la multiplication des agents en production, l'émergence des tours de contrôle, et la question qui s'impose progressivement à toutes les équipes qui opèrent des agents : comment on gère ça, vraiment, à l'échelle ?

Dossier Agent Profile avec robot jouet vintage sur un bureau
Agent Profile · Owner : IB · Un dossier RH pour quelque chose qui n'existe pas encore tout à fait.

La fiche de poste d'un agent IA — exercice de style ou nécessité ?

Voici ce que pourrait ressembler le recrutement d'un agent spécialisé dans un contexte MFT, dans un horizon de trois à cinq ans. Pas une parodie — un document de travail sérieux, avec les mêmes exigences qu'on appliquerait à un prestataire humain.

Agent Spécialisé — Gestion des Transferts de Fichiers & Rotation des Clés
Lazard Frères Gestion · DSI / Équipe MFT · Contrat d'Agent Permanent
REF : LFG-AGENT-MFT-002
Version 2.1 · Mars 2026
Mission principale
Gérer de façon autonome la rotation annuelle des clés SFTP sur l'ensemble du parc de 65 contreparties actives. Inclut la génération, la transmission, la validation, les relances et l'activation dans Axway B2Bi.
Périmètre d'action
SFTP · clés ED25519 Emails sortants Relances automatiques Validation technique Activation Axway (HITL requis) Hors périmètre : décisions financières Hors périmètre : communication de crise
Horaires d'activité
06h00–22h00 CET, jours ouvrés. Activité hors plage soumise à autorisation explicite de l'opérateur de garde. Temps d'arrêt minimum garanti : 8h/24h.
Escalades obligatoires
Toute activation en production · Tout écart technique non résolu sous 48h · Toute réponse ambiguë d'une contrepartie · Tout cas réglementaire détecté
Niveau de confiance requis
Score comportemental minimum 0.85/1.00 sur les 30 derniers jours pour maintenir l'autonomie pleine. En dessous : mode supervisé automatique.
Propriétaire
Ismail Bouchkhi — Consultant Expert MFT. Révision du périmètre : trimestrielle. Renouvellement du "contrat" : annuel avec évaluation de performance.
Clause de suspension
Suspension immédiate sur décision du propriétaire, de la RSSI, ou de la tour de contrôle. Restauration soumise à validation humaine avec rapport d'incident.

Ce document n'existe pas encore dans ce format standardisé. Mais chaque ligne correspond à quelque chose que j'ai déjà écrit quelque part — dans un prompt, dans une documentation technique, dans une note à la RSSI. La fiche de poste, c'est juste la formalisation de ce qu'on fait déjà de façon éparpillée.

Le CRM des agents — gérer un parc à l'échelle

Une entreprise avec dix agents peut les suivre dans un tableau. Avec cinquante, ça devient un problème de gestion. Avec deux cents — ce qui est réaliste d'ici trois ans pour une grande organisation — il faut un outil dédié.

Les CRM RH existent pour gérer les collaborateurs humains : historique, performance, formation, contrats. La logique d'un CRM pour agents IA n'est pas fondamentalement différente.

AgentCRM · Fiche Agent · LFG-AGENT-MFT-002
ID
LFG-AGENT-MFT-002
Nom
Agent-SFTP-Rotation
Statut
● ACTIVE (mode nominal)
Version prompt
v2.4.1 (depuis 14/03/2026)
Score comportemental
0.93 / 1.00 · Tendance : stable (+0.02 sur 30j)
Dernier incident
12/03/2026 · Dérive prompt détectée · Résolu en 2h34 · Archivé
Uptime 90 jours
99.1% · 2h14 d'arrêt non planifié (incident 12/03)
Tâches complétées
1 247 · dont 38 avec HITL · dont 4 escalades RSSI
Prochaine évaluation
01/06/2026 · Révision périmètre trimestrielle
Renouvellement contrat
01/01/2027 · Évaluation annuelle requise
Propriétaire
I. Bouchkhi · DSI / Équipe MFT
Backup désigné
Agent-SFTP-Backup-01 · En veille · Activable en < 30s

Ce que ce CRM rend possible, ce n'est pas juste du monitoring. C'est une mémoire institutionnelle des agents — l'historique de leurs décisions, de leurs incidents, de leurs évolutions. Quand un agent est remplacé, mis à jour, ou simplement questionné par un auditeur, cette traçabilité devient indispensable.

« Un agent sans historique, c'est un prestataire sans CV, sans références, et sans contrat signé. Vous lui confieriez l'accès à vos systèmes de production ? »

La réglementation européenne — ce qui existe déjà, ce qui arrive

On a tendance à traiter la gouvernance des agents IA comme un sujet futur. C'est une erreur. Le cadre réglementaire est déjà partiellement en place — et il va s'accélérer.

Août 2024 — En vigueur
AI Act européen — entrée en vigueur
Le règlement est adopté. Les systèmes à haut risque (finance, infrastructure critique, RH) sont soumis à des exigences de transparence, traçabilité et supervision humaine. Un agent MFT dans une institution financière entre dans cette catégorie.
Février 2025 — Applicable
Interdictions des pratiques IA inacceptables
Première vague d'obligations directement applicables. Concerne notamment les systèmes de scoring et de profilage automatisé — pertinent pour tout agent qui évalue ou classe des contreparties.
Août 2026 — Prochain palier
Obligations pour les systèmes à usage général (GPAI)
Les modèles fondateurs et les systèmes qui en dérivent (dont les agents LLM) devront documenter leurs capacités, leurs limites et leurs risques systémiques. Les fournisseurs et les déployeurs auront des obligations séparées et cumulables.
Août 2027 — Pleine application
AI Act — obligations complètes pour systèmes à haut risque
Enregistrement obligatoire dans la base de données européenne, conformité aux exigences de robustesse, précision et cybersécurité, supervision humaine documentée, logs conservés minimum 10 ans pour les systèmes critiques.
2028–2030 — Horizon probable
Statut juridique des agents autonomes — débat ouvert
La Commission européenne a ouvert la réflexion sur la personnalité juridique des systèmes IA. Ce n'est pas acquis — mais la question de la responsabilité (qui répond d'une décision autonome ?) va forcer une réponse législative.

Les temps d'arrêt obligatoires — une idée absurde ?

C'est la proposition la plus provocante de cet article, et pourtant celle qui me semble la plus logique une fois qu'on y réfléchit sérieusement.

Un agent IA qui tourne 24h/24, 7j/7, sans interruption, sans mise à jour, sans révision — c'est un risque opérationnel. Les modèles évoluent. Les contextes changent. Ce qui était un comportement correct en janvier peut devenir problématique en juin si le contexte métier a changé et que personne n'a mis à jour les règles de l'agent.

Les infrastructures critiques ont des fenêtres de maintenance obligatoires. Les pilotes d'avion ont des limites de temps de vol. Les médicaments ont des dates de péremption. Ces contraintes existent parce qu'on a appris — parfois douloureusement — que l'absence d'interruption forcée est un vecteur de risque systémique.

Un agent IA en production continue sans révision, c'est le même problème. La dérive comportementale que j'évoquais dans l'article sur la tour de contrôle est précisément amplifiée par l'absence de points d'arrêt forcés.

Collaborateur humain
Congés annuels obligatoires (5 semaines minimum en France)
Entretien annuel de performance avec objectifs formalisés
Formation continue obligatoire dans certains secteurs
Visite médicale de travail périodique
Période d'essai avant autonomie pleine
Procédure formelle de rupture de contrat
Agent IA — équivalents logiques
Fenêtres de maintenance planifiées — révision du prompt, mise à jour des règles
Évaluation trimestrielle du scoring comportemental et du périmètre
Retraining périodique sur les nouveaux cas détectés en production
Audit de sécurité et de conformité par un tiers indépendant
Mode supervisé avant autonomie pleine (période probatoire)
Procédure de décommissionnement documentée et traçable

Ce parallèle n'est pas une métaphore poétique. C'est une grille de lecture opérationnelle. Chaque contrainte qui s'applique au collaborateur humain a une raison d'être — protéger l'organisation, l'individu, et les tiers. Ces mêmes raisons s'appliquent aux agents autonomes.

Le décommissionnement — l'angle mort de tous les projets

Tout le monde parle de déployer des agents. Presque personne ne parle de les retirer.

Pourtant, le cycle de vie d'un agent inclut nécessairement sa fin. Le modèle sous-jacent devient obsolète. Le use case disparaît. L'organisation change. La réglementation évolue. Et là, concrètement, que fait-on ?

Risques du décommissionnement non prévu
  • Un agent retiré sans documentation laisse des décisions passées inexplicables — problème majeur en cas d'audit ou de litige
  • Des dépendances non cartographiées : d'autres systèmes ou agents continuent d'envoyer des requêtes à un agent qui n'existe plus
  • Des données traitées par l'agent (logs, contextes, historiques) qui ne sont pas archivées selon les obligations réglementaires
  • Un remplacement précipité par un nouvel agent sans période de transition — perte de la mémoire opérationnelle accumulée

Le décommissionnement d'un agent devrait être aussi formalisé que son onboarding. Un rapport de fin de mission. Un archivage des logs. Une revue des décisions prises. Et, si l'agent est remplacé, un plan de transition qui préserve la continuité opérationnelle.

Ce que ça change pour ceux qui construisent aujourd'hui

Cette projection ne vise pas à effrayer. Elle vise à orienter. Si la direction est celle que je décris — et je pense qu'elle l'est, même si le calendrier est incertain — alors certaines décisions qu'on prend aujourd'hui dans la construction des agents ont des implications durables.

Ce qu'on peut faire dès maintenant
  • Versionner les prompts système comme du code — avec historique, commentaires, et possibilité de rollback. Ce n'est pas une contrainte supplémentaire, c'est de l'hygiène.
  • Documenter le périmètre de chaque agent dans un registre — même minimal. Qui l'a créé, pour quoi faire, quelles décisions il peut prendre seul, et qui en est responsable.
  • Définir les conditions de suspension avant le déploiement, pas en réaction à un incident. Un kill switch sans procédure est une illusion de contrôle.
  • Anticiper la question réglementaire — si votre organisation est dans le secteur financier, l'AI Act vous concerne déjà pour certains use cases. Une revue préventive vaut mieux qu'une mise en conformité forcée.
  • Traiter le décommissionnement comme une exigence dès le design — pas en fin de projet. Comment cet agent sera-t-il retiré ? Que laissera-t-il derrière lui ?
2027
AI Act pleine application
10 ans
Conservation logs systèmes critiques
0
Agents sans propriétaire identifié
· · ·
Pour clore cette série

Le vrai sujet n'est pas l'agent. C'est notre rapport à la délégation.

Ces trois articles — l'onboarding agent-à-agent, la tour de contrôle, et maintenant cette projection sur le statut des agents — convergent vers la même question fondamentale : à qui, et à quoi, sommes-nous prêts à déléguer des décisions réelles ?

La réponse n'est pas technique. Elle est organisationnelle, éthique, et réglementaire. La technologie, elle, est déjà là — ou presque. Ce qui n'est pas prêt, dans la plupart des organisations, c'est le cadre qui permet de lui faire confiance sans naïveté.

Construire un agent sans penser à sa gouvernance, c'est recruter sans contrat. Ça fonctionne tant que tout va bien. Le jour où ça se complique, l'absence de cadre amplifie chaque problème.

Je construis mon premier agent en ce moment. Et la question que je me pose chaque semaine n'est plus "est-ce que ça marche ?" Elle est : "est-ce que je serai capable d'expliquer ce qu'il a fait, pourquoi, et ce que j'ai fait pour m'en assurer ?"

Si la réponse est oui, on peut avancer.

Futur du travail Gouvernance IA AI Act Cycle de vie agent Réglementation européenne Décommissionnement CRM agents Responsabilité IA
Photo de profil
Ismail Bouchkhi
Consultant Expert MFT · Lazard Frères Gestion · Paris

Cette série de trois articles — onboarding agent-à-agent, tour de contrôle, et statut des agents — explore où mène logiquement ce qu'on construit aujourd'hui. Pas des prédictions. Des extrapolations ancrées dans le terrain.

Prospective · Governance · Regulation · Future of work

What if hiring an AI
became just like any other recruitment?

Job descriptions for agents. CRMs to manage them. European regulation to govern them. Mandatory downtime. This isn't science fiction — it's the logical direction of what we're building today.

Photo de profil
Ismail Bouchkhi
MFT Expert Consultant · Lazard Frères · Paris
March 2026  ·  12 min read
Last week, I spent two hours writing the specifications for my next agent. Its responsibilities, its limits, the conditions under which it can act alone. Reading it back, I realized it looked exactly like a job description.

That's no coincidence. When you define an AI agent — its action scope, its decision rules, its mandatory escalations, its active hours — you're doing exactly what an HR director does when recruiting: defining a role, its responsibilities, and the conditions of practice.

The difference today is that we're doing it informally, inside a system prompt, without any framework, without traceability, without shared process across organizations. In five years, I don't think that's sustainable.

This article is a projection. Not a prediction — a reasoned extrapolation of where current trends lead: the European AI Act, the proliferation of agents in production, the emergence of control towers, and the question that is gradually imposing itself on every team operating agents: how do we actually manage this, at scale?

Agent Profile folder with vintage tin toy robot on a desk
Agent Profile · Owner : IB · An HR file for something that doesn't quite exist yet.

The agent job description — style exercise or necessity?

Here's what recruiting a specialized agent might look like in an MFT context, three to five years from now. Not a parody — a serious working document, with the same rigor you'd apply to a human contractor.

Specialized Agent — File Transfer Management & Key Rotation
Lazard Frères Gestion · IT / MFT Team · Permanent Agent Contract
REF : LFG-AGENT-MFT-002
Version 2.1 · March 2026
Primary mission
Autonomously manage the annual SFTP key rotation across 65 active counterparts. Includes key generation, transmission, validation, follow-ups, and activation in Axway B2Bi.
Action scope
SFTP · ED25519 keys Outbound emails Automated follow-ups Technical validation Axway activation (HITL required) Out of scope: financial decisions Out of scope: crisis communications
Active hours
06:00–22:00 CET, business days. Activity outside this window requires explicit authorization from the on-call operator. Minimum guaranteed downtime: 8h/24h.
Mandatory escalations
Any production activation · Any unresolved technical discrepancy after 48h · Any ambiguous counterpart response · Any detected regulatory case
Required trust level
Minimum behavioral score of 0.85/1.00 over the past 30 days to maintain full autonomy. Below threshold: automatic supervised mode.
Owner
Ismail Bouchkhi — MFT Expert Consultant. Scope review: quarterly. Contract renewal: annual with performance evaluation.
Suspension clause
Immediate suspension at the discretion of the owner, CISO, or control tower. Reactivation requires human validation with incident report.

This document doesn't exist in this standardized format yet. But every line corresponds to something I've already written somewhere — in a prompt, in technical documentation, in a note to the CISO. The job description is just the formalization of what we're already doing in scattered pieces.

The agent CRM — managing a fleet at scale

A company with ten agents can track them in a spreadsheet. With fifty, it becomes a management problem. With two hundred — which is realistic within three years for a large organization — you need a dedicated tool.

HR CRMs exist to manage human employees: history, performance, training, contracts. The logic of an agent CRM isn't fundamentally different.

AgentCRM · Agent Record · LFG-AGENT-MFT-002
ID
LFG-AGENT-MFT-002
Name
Agent-SFTP-Rotation
Status
● ACTIVE (nominal mode)
Prompt version
v2.4.1 (since 14/03/2026)
Behavioral score
0.93 / 1.00 · Trend: stable (+0.02 over 30d)
Last incident
12/03/2026 · Prompt drift detected · Resolved in 2h34 · Archived
90-day uptime
99.1% · 2h14 unplanned downtime (03/12 incident)
Completed tasks
1,247 · including 38 with HITL · including 4 CISO escalations
Next evaluation
01/06/2026 · Quarterly scope review
Contract renewal
01/01/2027 · Annual evaluation required
Owner
I. Bouchkhi · IT / MFT Team
Designated backup
Agent-SFTP-Backup-01 · On standby · Activatable in < 30s

What this CRM enables isn't just monitoring. It's an institutional memory of agents — the history of their decisions, incidents, and evolutions. When an agent is replaced, updated, or questioned by an auditor, this traceability becomes indispensable.

« An agent without a history is a contractor with no CV, no references, and no signed contract. Would you give them access to your production systems? »

European regulation — what already exists, what's coming

There's a tendency to treat AI agent governance as a future topic. That's a mistake. The regulatory framework is already partially in place — and it's accelerating.

August 2024 — In force
European AI Act — entry into force
The regulation is adopted. High-risk systems (finance, critical infrastructure, HR) are subject to transparency, traceability, and human supervision requirements. An MFT agent in a financial institution falls into this category.
February 2025 — Applicable
Prohibited AI practices — first wave
First obligations directly applicable. Covers automated scoring and profiling systems — directly relevant for any agent that evaluates or ranks counterparts.
August 2026 — Next milestone
Obligations for general-purpose AI systems (GPAI)
Foundation models and systems derived from them (including LLM agents) must document capabilities, limitations, and systemic risks. Providers and deployers will have separate and cumulative obligations.
August 2027 — Full application
AI Act — complete obligations for high-risk systems
Mandatory registration in the EU database, compliance with robustness, accuracy and cybersecurity requirements, documented human supervision, logs retained for a minimum of 10 years for critical systems.
2028–2030 — Probable horizon
Legal status of autonomous agents — open debate
The European Commission has opened the discussion on AI legal personality. It's not settled — but the question of liability (who answers for an autonomous decision?) will force a legislative response.

Mandatory downtime — an absurd idea?

This is the most provocative proposal in this article, and yet the one that seems most logical once you think it through seriously.

An AI agent running 24/7, without interruption, without updates, without review — that's an operational risk. Models evolve. Contexts change. What was correct behavior in January can become problematic in June if the business context has shifted and nobody has updated the agent's rules.

Critical infrastructure has mandatory maintenance windows. Airline pilots have flight time limits. Medications have expiration dates. These constraints exist because we learned — sometimes painfully — that the absence of forced interruption is a vector of systemic risk.

An AI agent in continuous production without review is the same problem. The behavioral drift I described in the control tower article is precisely amplified by the absence of forced stopping points.

Human employee
Mandatory annual leave (minimum 5 weeks in France)
Annual performance review with formalized objectives
Mandatory continuing education in regulated sectors
Periodic occupational health check
Probationary period before full autonomy
Formal termination procedure
AI agent — logical equivalents
Planned maintenance windows — prompt review, rule updates
Quarterly behavioral score evaluation and scope review
Periodic retraining on new cases detected in production
Independent security and compliance audit
Supervised mode before full autonomy (probationary period)
Documented and traceable decommissioning procedure

This parallel isn't poetic metaphor. It's an operational framework. Every constraint that applies to a human employee exists for a reason — protecting the organization, the individual, and third parties. Those same reasons apply to autonomous agents.

Decommissioning — the blind spot of every project

Everyone talks about deploying agents. Almost nobody talks about retiring them.

And yet, an agent's lifecycle necessarily includes its end. The underlying model becomes obsolete. The use case disappears. The organization changes. Regulation evolves. And then, concretely, what do you do?

Risks of unplanned decommissioning
  • An agent removed without documentation leaves past decisions unexplainable — a major problem in the event of an audit or dispute
  • Unmapped dependencies: other systems or agents keep sending requests to an agent that no longer exists
  • Data processed by the agent (logs, contexts, histories) not archived according to regulatory obligations
  • A rushed replacement by a new agent with no transition period — loss of accumulated operational memory

Decommissioning an agent should be as formalized as its onboarding. An end-of-mission report. Log archiving. A review of decisions made. And, if the agent is being replaced, a transition plan that preserves operational continuity.

What this means for those building today

This projection isn't meant to frighten. It's meant to orient. If the direction is what I describe — and I believe it is, even if the timeline is uncertain — then some decisions we're making today in building agents have lasting implications.

What you can do right now
  • Version system prompts like code — with history, comments, and rollback capability. This isn't extra overhead, it's hygiene.
  • Document each agent's scope in a registry — even a minimal one. Who created it, what for, which decisions it can make alone, and who's responsible.
  • Define suspension conditions before deployment, not in reaction to an incident. A kill switch without a procedure is an illusion of control.
  • Get ahead of the regulatory question — if your organization is in financial services, the AI Act already applies to certain use cases. A preventive review beats a forced compliance sprint.
  • Treat decommissioning as a design requirement from day one — not at end of project. How will this agent be retired? What will it leave behind?
2027
AI Act full application
10 yrs
Log retention — critical systems
0
Agents without identified owner
· · ·
To close this series

The real topic isn't the agent. It's our relationship with delegation.

These three articles — agent-to-agent onboarding, the control tower, and now this projection on agent status — converge on the same fundamental question: to whom, and to what, are we willing to delegate real decisions?

The answer isn't technical. It's organizational, ethical, and regulatory. The technology, for its part, is already here — or nearly. What isn't ready, in most organizations, is the framework that allows us to trust it without naivety.

Building an agent without thinking about its governance is like hiring without a contract. It works as long as everything goes well. The day things get complicated, the absence of a framework amplifies every problem.

I'm building my first agent right now. And the question I ask myself every week is no longer "does it work?" It's: "will I be able to explain what it did, why, and what I did to ensure it?"

If the answer is yes, we can move forward.

Future of work AI Governance AI Act Agent lifecycle European regulation Decommissioning Agent CRM AI liability
Photo de profil
Ismail Bouchkhi
MFT Expert Consultant · Lazard Frères Gestion · Paris

This three-part series — agent-to-agent onboarding, control tower, and agent status — explores where what we're building today logically leads. Not predictions. Reasoned extrapolations grounded in field experience.

Tour de contrôleControl Tower Tous les articlesAll articles Suivant →Next →