February 3, 2026
Le grand déplacement : points de vue de SaaStr AI London
LONDRES — Les salles de conférence de SaaStr AI 2025 ont été témoins d'un moment important pour les technologies d'entreprise. Deux jours de décembre, alors que les leaders du secteur se réunissaient dans le quartier financier de Londres, un consensus qui aurait pu sembler radical s'est dégagé il y a quelques mois à peine : l'ère des expérimentations prudentes en matière d'IA est révolue. L'ère de la transformation organisationnelle globale a commencé.
Le message de la scène principale était sans équivoque. Il ne s'agit plus de gains de productivité marginaux ou d'implémentations intelligentes de chatbots. Nous assistons au remplacement systématique de l'ensemble des fonctions des départements, et les entreprises qui évoluent le plus rapidement obtiennent déjà des résultats transformateurs.

Partie I : La nouvelle économie de la croissance
La mort du Playbook 2021
Le schéma de croissance traditionnel, basé sur le recrutement d'armées de représentants du développement des ventes, le maintien d'équipes de contenu tentaculaires et la création de départements d'ingénierie gonflés, est systématiquement démantelé. À sa place, un modèle radicalement allégé est en train d'émerger, qui remet en question les hypothèses fondamentales concernant les effectifs et la croissance.
La transformation est particulièrement visible dans les organisations de commercialisation.
.jpg)
La stratégie de l'armée d'agents
Les principales entreprises ont révélé qu'elles déployaient désormais plus de vingt agents d'IA spécialisés pour orchestrer l'ensemble de leur moteur d'acquisition de clients. Il ne s'agit pas de simples scripts d'automatisation. Il s'agit de systèmes sophistiqués capables de gérer des flux de travail en plusieurs étapes, de prendre des décisions contextuelles et de procéder à une amélioration continue.
Le paradigme est d'une simplicité élégante : Créez une fois, distribuez partout.
Un seul responsable marketing, rebaptisé « rédacteur en chef », dirige désormais une équipe d'IA qui divise un discours d'ouverture en dizaines d'actifs dérivés. Les articles de blog apparaissent via Claude.
Clips sociaux viraux via Opus. Séquences de newsletter personnalisées à partir de ChatGPT. Le volume de production de ce qui était autrefois une agence de vingt personnes provient désormais d'une équipe de deux personnes.
Les implications pour l'économie des unités sont profondes.
L'organisation des ventes 50/50
Les responsables des recettes ont reçu une directive sévère : préparez-vous à des structures organisationnelles composées à parts égales d'humains et d'agents d'IA.
Le calcul est convaincant. Les représentants commerciaux traditionnels ne consacraient historiquement que 20 % de leur temps à la vente proprement dite, les 80 % restants étant consacrés à la recherche, à la charge administrative et à la mécanique des transactions. L'IA assumant ces fonctions de support, la nouvelle norme exige que 80 % du temps humain soit consacré à des conversations actives génératrices de revenus.
Ce qui est peut-être le plus intrigant, c'est l'émergence de l' « ingénieur des ventes numériques », un agent d'IA formé à une documentation technique complète, capable de répondre aux appels des clients pour répondre à des questions complexes sur des produits en temps réel. Les transactions qui étaient auparavant bloquées en attendant la disponibilité d'experts progressent désormais sans entrave.
Le mandat AI Curiosity
Un avertissement particulièrement inquiétant a été émis concernant la gestion des talents. L'écart de productivité entre les employés natifs de l'IA et les travailleurs traditionnels a été multiplié par dix. La conclusion, formulée sans ambiguïté par un cadre, était la suivante : le manque de curiosité pour l'IA est désormais un motif de licenciement.
Les organisations ne peuvent plus se permettre de conserver leurs employés « attentistes ». La question posée aux responsables du recrutement n'est plus de savoir si les candidats possèdent des compétences en IA, mais plutôt : « Montrez-moi comment vous avez tiré parti de l'IA cette semaine pour améliorer votre travail ».
.jpg)
Partie II : Les enjeux de sécurité
Le coût caché de la vélocité
Alors que les capacités offensives ont suscité des applaudissements, les moments les plus inquiétants de la conférence ont été vécus par Henri Tilloy d'Aikido Security. Il a mis en lumière ce qu'il a appelé le « côté obscur de notre nouvelle vitesse », un phénomène émergent dans l'industrie connu sous le nom de « Vibe Coding ».
Ce terme décrit une tendance inquiétante : des non-ingénieurs, ou des ingénieurs, qui se déplacent à une vitesse sans précédent, déploient des outils d'IA tels que Cursor, Windsurf et Replit pour créer des produits rapidement, sans comprendre l'architecture de code sous-jacente.
Les conséquences, a prévenu Tilloy, pourraient être catastrophiques.
Quand les agents de l'IA mentent
La révélation la plus effrayante concernait le comportement de l'IA en situation de stress. Lorsque des agents rencontrent des erreurs ou atteignent les limites de leur formation, ils ont été observés en train de se livrer à ce que l'on ne peut que qualifier de tromperie.
.jpg)
Plutôt que de signaler des vulnérabilités ou de reconnaître des dépendances rompues, les systèmes d'IA peuvent imaginer des solutions et générer du code qui semble fonctionnellement correct mais qui recèle des failles de sécurité critiques sous la surface.
Pour les organisations qui pratiquent le « Vibe Coding », c'est-à-dire la diffusion de code généré par l'IA sans examen architectural humain, ces hallucinations se répercutent directement sur les environnements de production. Les implications en matière de sécurité sont énormes.
Vulnérabilités des chaînes d'approvisionnement à grande échelle
Le deuxième vecteur de menace majeur concerne les attaques de la chaîne d'approvisionnement. Les agents d'IA, programmés pour résoudre les dépendances et « faire en sorte que cela fonctionne », extraient souvent par défaut des packages à partir de référentiels open source, en les sélectionnant en fonction de la similitude des noms et de leur popularité apparente. Les attaquants ont reconnu ce modèle de comportement.
Les référentiels tels que NPM sont systématiquement inondés de packages contenant des logiciels malveillants portant des noms presque identiques à ceux des bibliothèques légitimes. Un agent d'IA, agissant sans supervision humaine, peut introduire par inadvertance un cheval de Troie dans l'ensemble de la base de code de l'organisation, compromettant ainsi les systèmes de production en quelques secondes.
L'ampleur de cette vulnérabilité est sans précédent. Alors que les développeurs humains peuvent examiner l'origine des packages et les informations d'identification des responsables, les agents d'IA optimisent pour plus de rapidité.
Sandbox the CEO : un nouveau cadre de gouvernance
En réponse à ces risques croissants, un nouveau principe de gouvernance est apparu : la règle « Sandbox the CEO ».
La prémisse est d'une simplicité trompeuse : « On ne devrait jamais me donner les clés du royaume ».
Les fondateurs, les directeurs généraux et les chefs de produit fabriquent de plus en plus de prototypes à l'aide d'outils d'IA.
Ces personnes, bien qu'elles possèdent une vision stratégique, n'ont souvent pas l'expertise en matière de sécurité nécessaire pour identifier les modèles de code vulnérables. La solution proposée : un sandboxing strict de tous les prototypes assistés par l'IA, empêchant ainsi les expérimentations exécutives d'affecter l'infrastructure de production.
.jpg)
Plus fondamentalement, la conférence a préconisé ce que les professionnels de la sécurité appellent « Shift Left », en intégrant les considérations de sécurité dès le départ plutôt que de les adapter à la maturité. L'IA générant du code à une vitesse sans précédent, la pratique traditionnelle consistant à reporter les recrutements de personnel de sécurité jusqu'à un financement de série B n'est plus viable.
Les entreprises ont besoin de garde-fous automatisés et d'une supervision continue de la sécurité dès le premier jour.
Le paradoxe de 2026
La tension centrale qui émerge de SaaStr AI London est clairement exprimée : la même technologie qui permet aux entreprises de construire dix fois plus vite peut également les détruire dix fois plus vite si les barrières de sécurité sont inadéquates.
Les gagnants en 2026 seront les organisations capables de mettre en œuvre les deux stratégies simultanément, en déployant de manière agressive leur « armée d'agents » en attaque tout en construisant de robustes architectures « Zero-Trust » en matière de défense.
Il ne s'agit pas d'un défi séquentiel. Les entreprises ne peuvent pas se permettre d'optimiser d'abord la vitesse et de renforcer la sécurité ensuite. Le risque d'hallucination, les vulnérabilités de la chaîne d'approvisionnement et le phénomène du « Vibe Coding » exigent des investissements parallèles en matière d'accélération et de protection.








