Pendant des années, le middleware a eu une réputation ingrate. Invisible quand ça marche, accusé en premier quand ça tombe. Une infrastructure de plomberie — nécessaire, critique, mais rarement glamour. On ne lui demandait pas de penser. On lui demandait de transporter.
Puis l'IA est arrivée dans les systèmes d'information. Et les regards se sont tournés vers les applications : les chatbots, les copilotes, les interfaces conversationnelles. On a habillé les façades.
Mais la transformation la plus profonde, elle se passe dans les tuyaux.
Le middleware, c'est la couche logicielle qui fait communiquer des systèmes qui n'ont pas été conçus pour se parler. Un ERP SAP qui envoie des données à une plateforme partenaire via SFTP. Un flux EDI entre une banque et ses contreparties. Une API qui orchestre dix services distincts pour répondre à une seule requête.
Pendant trente ans, ce middleware a fonctionné selon un principe simple : des règles statiques, écrites par des humains, exécutées mécaniquement par des machines. Un fichier arrive dans ce format, il repart dans cet autre format, via ce protocole, avec cette transformation. Chaque règle, un ingénieur l'a écrite. Chaque cas limite, un développeur l'a anticipé — ou pas.
Un ensemble de règles statiques qui transportent de la donnée d'un point A à un point B. Il exécute. Il ne décide pas. Si la règle n'existe pas, il échoue. Si le format change, quelqu'un doit intervenir. Il est aussi intelligent que la dernière personne qui l'a configuré.
Une couche d'intégration qui observe, apprend, s'adapte et propose. Elle ne se contente pas d'exécuter des règles — elle comprend l'intention derrière ces règles. Quand quelque chose change, elle cherche une solution avant d'alerter. Elle augmente l'ingénieur au lieu de l'attendre.
Le Mindware — ce terme qui commence à circuler dans les cercles de l'architecture d'entreprise — n'est pas une rupture technologique. C'est une évolution de posture. Le middleware ne change pas de nature. Il change d'ambition.
Concrètement, qu'est-ce que ça change ? Prenons un exemple que je vis au quotidien : la gestion des flux SFTP avec des partenaires externes.
Dans un middleware classique, si un partenaire change son format de fichier sans prévenir, le flux échoue. Une alerte remonte. Un ingénieur intervient, analyse, corrige la règle de transformation, teste, redéploie. Temps moyen : quelques heures à quelques jours selon la criticité.
Dans un système augmenté par l'IA, la détection de l'anomalie déclenche une analyse automatique : le format a-t-il changé ? Y a-t-il un historique similaire ? Peut-on proposer une transformation alternative ? L'ingénieur reçoit non pas une alerte brute, mais un diagnostic avec une proposition de correction — qu'il valide ou ajuste. Il reste décisionnaire. Il n'est plus pompier.
Pour cadrer honnêtement cette évolution, j'aime utiliser une échelle d'autonomie — inspirée des niveaux de conduite autonome, adaptée à l'intégration.
Aujourd'hui, la majorité des systèmes d'entreprise oscillent entre le niveau 0 et le niveau 1. Les équipes les plus avancées atteignent le niveau 2. Le niveau 3 est accessible dès maintenant — c'est la direction vers laquelle je travaille dans mon périmètre.
La question qui revient toujours : « Et l'ingénieur dans tout ça ? »
Je vais être direct : l'ingénieur middleware qui refuse d'évoluer est effectivement en danger. Pas parce que l'IA va prendre son poste — mais parce que ses tâches les plus répétitives vont disparaître, et si c'est tout ce qu'il sait faire, il se retrouvera sans valeur ajoutée visible.
En revanche, l'ingénieur qui embrasse cette évolution devient quelque chose de différent et de beaucoup plus puissant : un architecte de systèmes autonomes. Il ne configure plus des règles — il définit des politiques. Il ne résout plus des incidents — il conçoit des systèmes qui se résorbent. Il ne surveille plus des flux — il pilote une infrastructure qui se surveille elle-même.
Il y a un débat légitime que je ne veux pas esquiver : jusqu'où laisser un système décider seul ?
Dans des environnements financiers réglementés — et c'est mon quotidien chez Lazard — la réponse est claire et non négociable : l'autonomie s'arrête là où la responsabilité commence. Aucune activation de flux critique, aucune modification de configuration en production, aucun échange de données sensibles ne peut se faire sans une validation humaine tracée et auditée.
Ce n'est pas une limitation technologique. C'est un choix d'architecture. Et c'est le bon choix.
J'ai passé 15 ans à configurer, migrer, optimiser des plateformes que la plupart des gens dans une entreprise ne savent même pas nommer. Des systèmes qui brassent des téraoctets de données critiques dans l'ombre, sans UI, sans visibilité, sans reconnaissance.
Cette année, j'ai commencé à explorer concrètement l'IA dans ce périmètre. La motivation était simple : reprendre du temps sur des tâches qui n'auraient jamais dû m'appartenir. Les relances partenaires. Les alertes à 3h du matin pour des fichiers mal formatés. La rotation manuelle de 65 clés SSH par an.
Ce que j'ai découvert en chemin, c'est que le vrai potentiel de l'IA dans les SI n'est pas dans les applications visibles. Il est dans l'infrastructure invisible. Parce que c'est là que les décisions se prennent vraiment — à quelle vitesse les données circulent, dans quel format, avec quelle sécurité, sous quelle gouvernance.
Le Mindware n'est pas un produit qu'on achète. C'est une posture qu'on adopte. Et cette posture commence par une question simple : parmi toutes les tâches que je fais aujourd'hui, lesquelles méritent vraiment mon intelligence ?
Les autres, l'IA peut les prendre. Et elle le fera mieux que nous — plus vite, plus régulièrement, sans oublier, sans se fatiguer. Notre rôle est de concevoir les systèmes qui rendent ça possible — et de garder la main sur ce qui compte vraiment.

Ingénieur diplômé de l'ESIEA, 15 ans d'expérience sur des plateformes MFT en production — Axway B2Bi, Gateway, Integrator, CFT. Passé par l'AIFE, Groupama, Arval BNP Paribas et SFR Distribution. Aujourd'hui consultant chez Lazard, je travaille sur l'intégration de l'IA dans les processus opérationnels MFT.
For years, middleware had an unglamorous reputation. Invisible when it works, first to be blamed when it breaks. Plumbing infrastructure — necessary, critical, but rarely exciting. It wasn't asked to think. It was asked to transport.
Then AI arrived in enterprise systems. And attention turned to applications: chatbots, copilots, conversational interfaces. We dressed up the facades.
But the deepest transformation is happening in the pipes.
For thirty years, middleware has had one job: execute. Receive a file, validate it, route it, deliver it. Perfectly, reliably, invisibly. The definition of pure infrastructure — a pipe that moves data without thinking.
I spend my days working with this infrastructure. At Lazard, I manage 65+ active MFT partners. And this year, as I began exploring AI on my first concrete use case, something became clear: what AI is beginning to change is not the middleware itself, but what surrounds it. The governance, the monitoring, the coordination.
The middleware executes exactly what it was told. No deviation. No adaptation. The human controls everything.
The system observes, detects anomalies, and alerts. The human decides everything — but is better informed.
AI suggests, prepares, automates the repetitive. The human validates before each critical action. This is where most advanced teams are now.
AI acts autonomously on low-risk decisions, escalates on complex or sensitive cases. The human defines scope and verifies outcomes.
The system adapts its own rules based on results. Remains fully auditable and explainable at every step.
Understanding of the business. Why does this partner send this particular file at this specific time? What does it mean when it arrives late? These questions require context that no model currently has.
Human negotiation with partners. Some MFT onboardings require calls, back and forth, accommodations. Relationship intelligence remains irreplaceable.
Responsibility. When a transfer fails and data goes to the wrong place, it is a human who is accountable. Autonomy stops where responsibility begins.
The real question is not "will AI replace MFT engineers?" It is "which tasks among those I do today actually deserve my intelligence?"
Key rotation: no. Anomaly detection on 10,000 daily logs: no. Sending follow-up emails to partners who haven't responded: no. These are tasks for agents.
Designing an integration architecture for a new critical partner: yes. Deciding whether to rotate a key despite an operational risk: yes. Building the policies that agents will apply: yes.
The Mindware is not a product you buy. It is a posture you adopt. And that posture starts with one simple question: among everything I do today, what actually deserves my intelligence? Everything else, AI can take. And it will do it better — faster, more consistently, without forgetting, without fatigue.

15 years on production MFT platforms — Axway B2Bi, Gateway, Integrator, CFT. Previously at AIFE, Groupama, Arval BNP Paribas and SFR Distribution. Now exploring how AI agents can make infrastructure think.