À mesure que l'IA d'entreprise accélère, la question la plus coûteuse n'est plus de savoir si l'outil fonctionne. C'est de savoir s'il peut démontrer son travail, sur demande, à quelqu'un qui a l'autorité de l'arrêter.
La vraie facture apparaît dans l'intervalle entre la signature d'une décision d'achat et le moment où l'équipe opérationnelle doit rendre des comptes devant un auditeur, un régulateur ou un client. Le schéma parlera sans doute à beaucoup d'entre vous qui avez participé à un débriefing opérationnel post-déploiement.
J'appelle cela la dette d'exécution.
Ce qu'est la dette d'exécution — et ce qu'elle n'est pas
La dette d'exécution, c'est l'écart entre ce qu'un contrat d'IA promet et ce que l'équipe opérationnelle doit réellement délivrer pour faire fonctionner le système en conditions réelles.
Ce n'est pas de la dette technique. La dette technique réside généralement dans le code source et les ingénieurs la résorbent au fil du temps. La dette d'exécution, elle, se loge entre le système et le métier. Seules des personnes peuvent la rembourser — et rarement celles qui ont signé le contrat. C'est pourquoi elle n'apparaît presque jamais dans le business case.
Valider un achat déclenche la dette, qui s'accumule ensuite en silence. Chaque couche de contexte laissée hors du périmètre d'achat devient une charge que l'équipe opérationnelle porte seule dans ses comptes. La langue. La traçabilité réglementaire. L'intégration aux processus existants. La défendabilité face à un audit. La formation. La conduite du changement sur le terrain, au gemba. C'est là que la dette trouve son remboursement — ou fait défaut.
Le premier symptôme est rarement une panne système. Il apparaît quand le système reste muet face à la question d'une partie prenante, devant quelqu'un qui peut agir sur ce silence. Le temps que la dette devienne visible, elle s'est déjà capitalisée pendant des mois. Le contrat se signe une fois. Le déploiement se renégocie chaque jour.
Cas n°1 : la chaîne d'audit
Le 2 avril 2026, la FDA a émis la Warning Letter 320-26-58 à l'encontre de Purolea Cosmetics Lab, à Livonia, dans le Michigan. C'est la première action coercitive de la FDA en matière de bonnes pratiques de fabrication (cGMP) citant explicitement une dépendance excessive à l'IA comme violation de conformité.
Purolea avait utilisé des agents IA pour générer des spécifications de médicaments, des procédures de fabrication et des dossiers de production. L'Unité Qualité ne les avait pas examinés. La validation des procédés n'avait pas été effectuée. Les citations relèvent des sections 21 CFR 211.22(c) et 21 CFR 211.100.
Lorsque les inspecteurs ont signalé l'absence de validation des procédés, l'entreprise a répondu que l'agent IA n'avait pas identifié cette exigence. Un fabricant pharmaceutique soumis à réglementation a déclaré à la FDA que sa défaillance de conformité était la faute de l'agent IA. L'agence n'avait jamais eu besoin de souligner cette phrase auparavant. C'est désormais chose faite.
Le schéma ne se limite pas à la pharmacie. Partout où des livrables générés par l'IA sont envoyés en production sans qu'un humain compétent les ait examinés, le même vide de responsabilité se forme. Les systèmes, correctement utilisés, peuvent assister ou accélérer la décision. Ils ne peuvent pas porter l'obligation sous-jacente.
Les cadres réglementaires existent. Le projet de guidance de la FDA de janvier 2025 a défini un cadre de crédibilité en sept étapes, indexé sur le contexte d'utilisation et le risque du modèle. Le Guide GAMP de l'ISPE sur l'IA, publié en juillet 2025, compte 290 pages. L'article 12 de l'AI Act européen impose une journalisation automatique tout au long du cycle de vie du système — une piste d'audit par la loi, et non par la bonne volonté. Les cadres existent. La piste de preuves, elle, ne s'écrit pas toute seule.
Je me souviens de sessions d'audit GMP avec des experts japonais sur site, certains avec 30 ans de terrain. Partout, dans chaque processus, avec ou sans IA, une approche binaire prévalait. Existait-il un risque, même théorique, de déviation ? Si oui, il fallait le traquer et l'éliminer autant que possible. Dans une salle d'audit japonaise, le risque et l'incertitude ne sont pas des abstractions. Ce sont des obligations à honorer.
La provenance a toujours été la frontière de la conformité. Le concept existait avant l'IA. L'IA a simplement mis cette frontière en lumière pour ceux qui n'avaient jamais eu besoin de la regarder.
Cas n°2 : la couche linguistique
En février 2026, NTT DATA et NVIDIA ont publié une étude conjointe sur Hugging Face, testant le modèle tsuzumi-v2.0-28B-instruct de NTT sur un ensemble contrôlé de documents juridiques japonais. La précision de base était de 15,3 %. En utilisant le jeu de données Nemotron-Personas-Japan de NVIDIA pour développer 450 échantillons de départ en 138 000 exemples d'entraînement synthétiques, la précision est montée à 79,3 %.
NTT DATA est la plus grande entreprise de services informatiques dont le siège est au Japon, avec des bureaux dans le monde entier. Si un leader technologique japonais doit déployer autant d'ingénierie pour passer de 15,3 % à 79,3 % sur des tâches de langage juridique, la question du sourcing n'est pas de savoir si un outil prend en charge le japonais. C'est de savoir s'il comprend votre japonais.
Ce qui me rappelle un jeu de slides Databricks que j'ai récemment traduit pour la filiale japonaise d'un client allemand. Décider quels termes restaient en lettres romaines et lesquels passaient en katakana relevait de la traduction d'un menu français pour un hôtel haut de gamme de Tokyo. Quels termes sont déjà sur le radar du client final ? Lesquels doivent être phonétisés ? Lesquels doivent être rendus en japonais ? Lesquels nécessitent une explication supplémentaire ? Multipliez cela par 64 slides et un cycle de ringi de six semaines, et vous avez la taxe de traduction en clair. Le fournisseur avait vendu un support multilingue fluide. Le travail a atterri sur les ingénieurs seniors, qui ont cessé d'architecturer des systèmes pour entretenir un glossaire.
Les difficultés de main-d'œuvre au Japon ne sont un secret pour personne, mais la pénurie en ingénierie informatique est particulièrement aiguë. Le déficit est déjà projeté à 800 000 personnes d'ici 2030 dans le scénario de forte demande du METI. Chaque intervention manuelle devient un luxe qu'aucune entreprise ne peut se permettre.
Dans l'adoption en entreprise, la langue est une infrastructure. Elle porte l'autorité, le risque et la responsabilité. L'IA peut économiser sur la production de mots. Produire 信用 (shin'yō, la confiance) est une tout autre affaire.
Le schéma de fond
Prenez du recul par rapport aux cas, et la structure apparaît clairement. L'IA s'achète au centre et s'absorbe à la périphérie, là où vivent les exceptions. Et c'est dans les exceptions que se consomment le budget, la responsabilité et la confiance.
Le mécanisme, c'est le modèle opérationnel, pas le code postal.
Deux chiffres montrent pourquoi la dette augmente alors même que le prix du modèle baisse.
Le rapport AI Index 2025 de Stanford HAI a documenté une baisse de 280 fois du coût d'inférence d'un modèle équivalent à GPT-3.5 entre novembre 2022 et octobre 2024. Vingt dollars par million de tokens sont tombés à sept centimes. Les coûts matériels ont baissé de 30 % par an. L'efficacité énergétique s'est améliorée de 40 % chaque année.
Le coût total de possession, lui, évolue en sens inverse. Le rapport IBM Cost of a Data Breach 2025 situe la moyenne mondiale à 4,44 millions de dollars, en baisse de 9 % globalement, mais en hausse jusqu'à un record historique de 10,22 millions de dollars aux États-Unis. Le chiffre qui compte le plus pour notre propos : 97 % des organisations victimes de brèches via des systèmes d'IA ne disposaient pas de contrôles d'accès IA adéquats. L'IA fantôme (shadow AI) était un facteur dans 20 % des brèches et ajoutait en moyenne 670 000 dollars au coût de l'incident.
Le même rapport a révélé que les organisations utilisant massivement l'IA en défense économisent en moyenne 1,9 million de dollars par brèche par rapport à celles qui ne le faisaient pas. Le modèle, c'est la partie bon marché. Le contexte de déploiement que le siège n'a jamais intégré au prix, c'est la partie coûteuse.
L'AI Act européen le souligne directement. Les articles 9, 10 et 12 imposent une gestion continue des risques, une gouvernance des données et une journalisation tout au long du cycle de vie pour les systèmes d'IA à haut risque. Les obligations pour les systèmes à haut risque s'appliquent à partir du 2 août 2026, sous réserve d'une proposition de simplification Digital Omnibus susceptible de décaler l'échéance. Pour les achats, cela signifie que les obligations de preuve doivent être intégrées au prix avant le déploiement, et non découvertes pendant la remédiation.
La prévision de Gartner de juillet 2024 selon laquelle 30 % des projets d'IA générative seraient abandonnés après la preuve de concept d'ici fin 2025 a depuis été dépassée par les faits opérationnels. La recherche GenAI Divide du MIT, publiée mi-2025, a révélé que 95 % des pilotes d'IA générative en entreprise ne produisaient aucun retour mesurable. Le pourcentage exact importe moins que le schéma. Les pilotes sont plus faciles à lancer qu'à industrialiser. Acheter de l'IA est désormais plus facile que de l'absorber.
Ce que cela exige des achats
Les meilleurs acheteurs d'IA en entreprise en 2026 ne seront pas les plus rapides. Ce seront ceux qui auront intégré le coût de la périphérie dans la décision d'achat avant la signature. Le point de contrôle n'est pas le comité de pilotage après le go-live. C'est le cahier des charges avant la signature.
Ils exigeront de savoir comment le système expose sa chaîne de raisonnement, dans quelle langue, et sous quelle supervision. Ils exigeront au moins une personne dans la salle qui parle à la fois l'anglais du fournisseur et la culture opérationnelle du client. Cette personne n'est pas un traducteur en renfort. C'est le détecteur de schémas, celui qui voit où les hypothèses du centre se fissurent avant que le contrat ne soit signé.
Avant de signer, demandez au fournisseur de produire la piste d'audit que son système a généré pour un client comparable au cours des six derniers mois. Si la réponse est le silence, le prix inscrit au contrat n'est pas le vrai prix.
C'est là que le Smartsourcing prend tout son sens.
Le Smartsourcing n'est pas un modèle tarifaire. C'est une discipline de livraison qui intègre le contexte local dans le projet dès le premier jour. Des équipes mixtes, multinationales. Une capacité linguistique native sur les marchés où le travail atterrit réellement. Au moins une personne dans l'équipe de réalisation qui parle la langue du client et partage sa culture, capable de lire la salle avant même que l'exigence ne soit documentée.
Dirox affine cette approche depuis 2003. L'IA n'a pas changé le principe. Elle a augmenté le prix de l'erreur. Quand la revue de projet détecte le risque avant qu'il ne se propage, en particulier dans ces trois premiers mois décisifs, ce n'est pas une fonctionnalité. C'est l'absence de silence qui aurait suivi la question de l'auditeur.
Conclusion
L'IA réduit le coût de la réponse. Le coût d'être digne de confiance pour la question, lui, ne cesse d'augmenter. C'est cela, le véritable avantage concurrentiel.
Par Richard Mort, Consultant en Intelligence Stratégique


.png)
.png)





