Voici un nombre qui devrait vous arrêter : 68.
C'est la distance en points de pourcentage entre le nombre d'entreprises ayant adopté des agents d'IA sous une forme ou une autre (79 %) et celles qui les font réellement fonctionner en production (11 %), selon les recherches de l'IBM Institute for Business Value publiées ce trimestre. Cela représente, par une mesure, le plus grand arriéré de déploiement de l'histoire de la technologie d'entreprise.
À titre de comparaison, lorsque le cloud computing était à un moment comparable de sa courbe d'adoption, l'écart entre les pilotes et la production était d'environ 20 points. L'écart pour les agents d'IA est plus de trois fois plus large. Quelque chose de structurel ne va pas — et ce ne sont pas les modèles d'IA eux-mêmes.
Le Cimetière des Preuves de Concept
La plupart des organisations qui expérimentent avec les agents d'IA suivent le même arc. Une équipe construit une démo interne impressionnante : un agent qui résume les tickets de support client, ou un autre qui croise les données d'inventaire avec les e-mails des fournisseurs. La démo fonctionne. Les dirigeants sont enthousiastes. Le budget est approuvé.
Puis l'agent rencontre l'environnement réel.
Il rencontre des données qui vivent dans trois systèmes différents, aucun d'eux ne communiquant entre eux. Il doit appeler une API interne nécessitant des identifiants que personne n'a pensé à provisionner. Il produit une réponse plausible mais incorrecte, parce que les données sous-jacentes ont six semaines et personne n'a construit de vérification de fraîcheur. Au quatrième mois, l'agent est silencieusement mis hors service.
Ce n'est pas un échec de l'IA. C'est un échec d'infrastructure — spécifiquement, la couche middleware qui se trouve entre un agent d'IA et les données dont il a besoin pour agir. IBM estime que les charges de travail activées par l'IA devraient passer de 3 % de l'informatique d'entreprise en 2024 à 25 % d'ici 2026.
Le Vrai Goulot d'Étranglement Ce Sont les Données, Pas les Modèles
Pensez au réseau électrique. Lorsque les premières centrales électriques sont entrées en service dans les années 1880, Thomas Edison n'avait pas de problème pour construire des générateurs — la technologie fonctionnait. Ce qu'il avait, c'était un problème de câblage. L'invention qui a tout changé n'était pas un meilleur générateur. C'était la transmission en courant alternatif standardisé — un protocole permettant à n'importe quel appareil de se brancher sur n'importe quel réseau.
Les agents d'IA en 2026 font face au même problème. Les modèles sont extraordinairement capables. Le problème, c'est que chaque agent, accédant à chaque source de données, nécessite une intégration personnalisée. Une entreprise avec dix systèmes internes et trois agents d'IA a besoin de trente intégrations personnalisées, chacune fragile.
La recherche IBM est sans équivoque : les organisations qui échouent à faire passer les agents du pilote à la production ne sont pas vaincues par l'intelligence des modèles. Elles sont vaincues par les données derrière les modèles. Quatre-vingt-dix pour cent des données d'entreprise ne sont pas structurées — dans des e-mails, des PDF, des fils Slack, des enregistrements de réunions — et seule une infime fraction est accessible aux agents d'IA de manière fiable.
Un Protocole pour la Plomberie des Agents
En novembre 2024, Anthropic a publié le Model Context Protocol (MCP) — un standard ouvert qui fonctionne, essentiellement, comme le courant alternatif pour les intégrations d'agents d'IA. Au lieu de construire un connecteur personnalisé entre un agent d'IA et chaque source de données, les développeurs construisent un serveur MCP par outil. Tout client IA compatible MCP peut alors se connecter à n'importe quel serveur MCP sans travail personnalisé supplémentaire.
Les chiffres d'adoption racontent l'histoire d'un véritable point d'inflexion. MCP a été lancé avec environ 2 millions de téléchargements mensuels du SDK. Début 2026, MCP avait dépassé 97 millions de téléchargements mensuels et plus de 5 800 intégrations de serveurs construites par la communauté, avec tous les grands fournisseurs d'IA engagés dans le standard.
Les coûts d'intégration, selon certaines estimations de l'industrie, chutent de 60 à 70 pour cent avec MCP.
Le Manuel de Production de Pinterest
La preuve la plus claire que cela n'est pas théorique est venue le 1er avril 2026, quand Pinterest Engineering a publié un compte rendu détaillé de la façon dont ils ont construit un écosystème MCP de niveau production. Pinterest a construit trois choses en parallèle : des serveurs MCP spécifiques à chaque domaine, un registre central de gouvernance, et une approbation humaine dans la boucle pour les actions à fort impact.
Ce dernier point mérite une attention particulière dans le contexte européen et canadien : l'exigence de supervision humaine pour les systèmes automatisés à impact élevé n'est pas seulement une bonne pratique d'ingénierie — c'est une obligation de conformité au titre du Règlement européen sur l'IA (AI Act). L'architecture de Pinterest intègre exactement ce modèle de surveillance humaine dans la couche protocolaire, pas en surcouche après coup.
Les résultats au janvier 2026 : 66 000 invocations d'outils par mois auprès de 844 utilisateurs actifs, économisant environ 7 000 heures d'ingénierie par mois. Ce n'est pas un pilote. C'est de la production.
La Pile de Protocoles Émergente
MCP résout le problème d'intégration verticale. En avril 2025, Google a annoncé le protocole Agent-to-Agent (A2A), conçu pour gérer la coordination horizontale entre agents. Pour les organisations construisant une infrastructure d'agents d'IA aujourd'hui, les deux protocoles convergent vers une pile cohérente : MCP pour l'accès aux outils, A2A pour la coordination entre agents.
Ce Qui Sépare les 11 % des 89 %
Les données sur les déploiements réussis pointent vers quatre facteurs constants.
Portée étroite, intégration profonde. Les agents qui réussissent en production ne tentent pas d'automatiser tout. Ils choisissent un flux de travail bien défini et s'intègrent profondément avec les sources de données spécifiques requises.
Préparation des données avant préparation des agents. Les organisations qui progressent dans le déploiement consacrent autant de temps à leur infrastructure de données qu'aux agents eux-mêmes.
Gouvernance au niveau de la couche protocolaire. La gouvernance ne peut pas être une réflexion après coup. Elle doit être intégrée dans le middleware dès la conception — dans le registre, le modèle de permissions, les flux d'approbation. Pour les organisations soumises au Règlement européen sur l'IA, cette approche n'est pas optionnelle.
Refonte des flux de travail, pas automatisation superposée. La recherche Deloitte 2026 a constaté que les organisations performantes sont trois fois plus susceptibles de mettre à l'échelle les agents, et le différenciateur est la volonté de repenser le flux de travail sous-jacent.
Implications pour les PME
La bonne nouvelle pour les petites organisations est que la couche d'infrastructure mûrit rapidement. MCP change substantiellement l'économie. Une PME qui s'engage dans le standard aujourd'hui peut connecter ses agents d'IA à son CRM, son système de tickets de support, sa documentation interne et son logiciel de comptabilité en utilisant des serveurs MCP construits par la communauté — sans construire d'intégrations personnalisées de zéro.
La question critique n'est pas quel modèle d'IA acheter. C'est quels flux de travail cibler en premier et si les données derrière ces flux de travail sont propres, actuelles et accessibles. Gartner projette que 40 % des applications d'entreprise intégreront des agents d'IA spécifiques à des tâches d'ici fin 2026.
Conclusion
L'écart de 68 points entre l'adoption des agents d'IA et leur fonctionnement en production n'est pas une histoire d'échec technologique. C'est une histoire sur l'infrastructure qui arrive plus tard que la technologie qu'elle soutient — un schéma qui s'est répété dans chaque grande transition de plateforme, de l'électrification à l'informatique en nuage.
Pour les décideurs des PME, la question pratique est : voulez-vous faire partie des 11 % ou des 89 % ? La réponse dépend beaucoup moins des outils d'IA que vous choisissez et beaucoup plus de votre volonté de traiter votre infrastructure de données comme un investissement de premier ordre.
Le câblage passe en premier.
