🦉
Le Veilleur
Quand le code ne vaut plus rien, qui contrôle la machine ?

Quand le code ne vaut plus rien, qui contrôle la machine ?

Aurélien Allienne

Aurélien Allienne

Publié le • 5 min de lecture

Quand le code ne vaut plus rien, qui contrôle la machine ?

Les assistants IA pèsent désormais 56 % du volume de recherche mondial. Le code s’écrit tout seul, les agents autonomes gèrent nos boîtes mail, et Forrester pose la question qui fâche : si le code est gratuit, que reste-t-il à vendre ? Cette semaine, la réponse se dessine — et elle parle de contrôle, pas de technologie.

Le code, cette nouvelle commodité

“The marginal cost of code is collapsing. That single fact changes everything.”

C’est le constat central du “Zen of AI Coding” [1], un manifeste qui redéfinit le métier de développeur. Le rôle ne se joue plus au clavier. Il se joue en amont : cadrer le problème, poser les contraintes, juger le résultat. L’exécution, elle, est déléguée aux agents.

Et l’auteur va plus loin : quand coder ne coûte plus rien, le goulot d’étranglement se déplace. Ce ne sont plus les jours-développeur qui comptent. Ce sont les décisions produit, les tests, les evals, les guardrails, le passage en production. Tout ce qui transforme “on peut le construire” en “on peut lui faire confiance”.

Forrester prolonge le raisonnement dans “When Code Is Free, What’s Left To Sell?” [2] : quand tout le monde peut produire du logiciel fonctionnel, la valeur migre. Vers l’architecture. Vers l’intégration. Vers la confiance. Le code brut ne vaut plus rien — c’est ce qu’on construit autour qui compte.

Et les chiffres confirment l’ampleur du basculement. Les assistants IA représentent maintenant 56 % du volume de requêtes des moteurs de recherche [3]. Ce n’est plus un outil de niche pour développeurs. C’est un canal d’accès à l’information aussi massif que Google lui-même.

La bataille du contrôle

Si le code est gratuit, le pouvoir est dans l’infrastructure. Et cette semaine, deux mouvements illustrent la consolidation en cours.

Anthropic attaque le Pentagone en justice [4]. Deux procès déposés contre le Département de la Défense, qui a classé l’entreprise comme “risque pour la chaîne d’approvisionnement” — un label habituellement réservé aux entreprises liées à la Chine, jamais utilisé contre une société américaine. L’origine du conflit ? Un contrat de 200 millions de dollars. Anthropic a refusé que son IA serve à la surveillance de masse ou aux armes autonomes. Le Pentagone a répondu qu’une entreprise privée ne dicte pas la politique de défense des États-Unis.

De l’autre côté, OpenAI absorbe Promptfoo [5], l’outil de red-teaming et d’évaluation utilisé par 350 000 développeurs et plus de 25 % du Fortune 500. L’objectif affiché : intégrer les evals directement dans la couche modèle et infrastructure. Promptfoo restera open source, mais le message est clair. Celui qui contrôle l’évaluation contrôle la norme de qualité.

Deux visions s’affrontent. D’un côté, une entreprise qui trace des lignes éthiques et se retrouve punie pour ça. De l’autre, une consolidation silencieuse de la chaîne d’outils. Dans les deux cas, la question est la même : qui décide des règles ?

Qui surveille les agents ?

Le code est gratuit, les agents sont partout — mais qui vérifie leur travail ?

Anthropic lance cette semaine Claude Code Review [6], un outil qui dispatche une équipe d’agents pour traquer les bugs dans chaque pull request. Face au déluge de code généré par IA, il faut de l’IA pour le relire. C’est cohérent. C’est aussi vertigineux — de l’IA qui vérifie de l’IA, avec l’humain qui supervise le tout.

Parce que dans le même temps, Brian Krebs alerte sur les risques des agents autonomes [7]. OpenClaw, l’agent open source qui cartonne en Chine, est conçu pour prendre des actions de manière proactive, sans prompt. Il gère votre boîte mail, exécute des programmes, navigue sur le web, s’intègre à Discord ou WhatsApp. Et il est “le plus utile quand il a un accès complet à votre vie numérique”. Krebs ne mâche pas ses mots : les lignes entre coéquipier de confiance et menace interne sont en train de disparaître.

C’est là que le fil se rejoint. Le code ne coûte plus rien à produire. Les agents prolifèrent. Mais les mécanismes de confiance — évaluation, audit, garde-fous — sont encore en construction. Et ils sont déjà en train de se concentrer entre quelques mains.

Le code est devenu gratuit. La confiance, elle, n’a jamais été aussi chère.

Sources

  1. Zen of AI Coding - Nonstructured
  2. When Code Is Free, What’s Left To Sell?
  3. AI assistants now equal 56% of global search engine volume: Study
  4. Anthropic Sues Department of Defense Over ‘Supply Chain Risk’ Label
  5. Promptfoo is joining OpenAI
  6. Anthropic launches code review tool to check flood of AI-generated code
  7. How AI Assistants are Moving the Security Goalposts

Pour aller plus loin

Cet article a été rédigé en m’appuyant sur une IA pour m’aider à synthétiser et structurer ma veille. Les idées, le choix des sources et la relecture restent les miens.

Pour aller plus loin

The Top 100 Gen AI Consumer Apps — 6th Edition

— a16z met à jour son classement : ChatGPT domine toujours, mais les apps "legacy" intègrent l'IA à vitesse grand V

10x is the new floor

— Un essai percutant sur le fossé entre ceux qui ont adopté l'IA et ceux qui n'ont pas encore ouvert Cursor

The Debt Beneath the Dream

— SoftBank en chute libre, le data center texan de Stargate abandonné : les dessous financiers de la course à l'IA

Is legal the same as legitimate: AI reimplementation and the erosion of copyleft

— Quand Claude réécrit une librairie Python pour changer sa licence, le droit est-il la seule boussole ?

Teaching LLMs to reason like Bayesians

— Google Research explore le raisonnement probabiliste pour les LLMs

Cet article a été rédigé en m'appuyant sur une IA pour m'aider à synthétiser et structurer ma veille. Les idées, le choix des sources et la relecture restent les miens.