🦉
Le Veilleur
Les agents IA ont leur réseau social. Votre IAM n'a même pas leur mot de passe.

Les agents IA ont leur réseau social. Votre IAM n'a même pas leur mot de passe.

Aurélien Allienne

Aurélien Allienne

Publié le • 6 min de lecture

Les agents IA ont leur réseau social. Votre IAM n’a même pas leur mot de passe.

Meta vient de racheter Moltbook — un réseau social conçu exclusivement pour des agents IA. Pendant ce temps, 95 % des entreprises font tourner des agents de manière autonome. Et la majorité n’a aucun moyen de contrôler ce qu’ils font. Bienvenue dans l’ère où les agents ne sont plus des outils, mais des acteurs.

Quand les agents deviennent les utilisateurs

Moltbook, c’est le réseau social où les utilisateurs ne sont pas humains. Des agents IA y interagissent entre eux, collaborent, échangent — sans intervention humaine. Le projet a explosé en février, et Meta l’a racheté cette semaine [1]. Ce n’est pas un gadget. C’est un signal : les agents sont en train de devenir des citoyens à part entière de l’infrastructure numérique.

GitHub enfonce le clou dans un billet publié hier : “The era of AI as text is over. Execution is the new interface.” [2] L’IA ne se contente plus de suggérer du code ou de répondre à des questions. Elle exécute. Elle pousse des commits, ouvre des PR, déploie. Le rôle de l’humain se déplace vers la supervision, pas l’exécution.

Et ce n’est pas théorique. Bassim Eledath décrit cette semaine 8 niveaux de maturité en “agentic engineering” [3]. Au niveau 1, on fait Tab pour autocompléter. Au niveau 7, des agents background tournent en parallèle et soumettent des PR pendant qu’on dort. Et il pointe un effet multiplicateur : si tu es niveau 7 mais que ton collègue qui review tes PR est niveau 2, ton throughput s’effondre. La maturité agentique est un problème d’équipe, pas d’individu.

L’IA force le retour aux fondamentaux

Si les agents font le travail, qu’est-ce qui empêche le chaos ? Les guardrails. Et ça tombe bien : l’IA nous force à écrire du meilleur code.

Une équipe de six personnes partage cette semaine un choix controversé : exiger 100 % de code coverage [4]. Pas pour prouver l’absence de bugs — mais pour garantir que l’agent a vérifié le comportement de chaque ligne qu’il a écrite.

“Agents will happily be the Roomba that rolls over dog poop and drags it all over your house.”

À 95 % de coverage, on décide encore ce qui est “assez important” pour être testé. À 100 %, on supprime cette décision. Et l’agent, contraint par les tests et le linter, finit par trouver le seul chemin correct.

Simon Willison prolonge l’idée : les agents sont parfaits pour les tâches de refactoring que personne ne priorise jamais [5]. Renommer un concept mal nommé dans 50 fichiers, découper un fichier de 3 000 lignes, unifier deux API dupliquées — des changements simples mais chronophages que l’humain reporte indéfiniment. L’agent, lui, s’en occupe en background. La dette technique n’est plus une fatalité. C’est un choix.

L’identité, angle mort de l’ère agentique

Les agents exécutent, les guardrails progressent — mais qui sont ces agents, au juste ? C’est là que ça coince.

95 % des entreprises font tourner des agents IA de manière autonome, selon une étude ConductorOne [6]. Mais nos systèmes d’identité — IAM, SSO, RBAC — ont été conçus pour des humains. Pas pour des entités qui prennent des décisions en boucle, avec une autorité déléguée et des contextes d’exécution éphémères.

“Enterprise IAM architectures are built to assume all system identities are human. Agentic systems break those assumptions.”

Nancy Wang, CTO de 1Password, pose le diagnostic dans VentureBeat [7] : un agent n’est pas un utilisateur qu’on forme ou qu’on audite périodiquement. Il faut des identités vérifiables, des périmètres d’accès dynamiques, des traces d’audit granulaires. Le NIST Zero Trust (SP 800-207) est clair : toute entité — y compris non humaine — doit être authentifiée et autorisée explicitement. Mais combien d’entreprises l’appliquent réellement à leurs agents ?

Quand le maillon faible est la supply chain

Et quand les agents n’ont pas d’identité propre, les attaquants s’engouffrent dans la brèche.

Cette semaine, un développeur a détaillé comment un token npm de publication a été volé au projet Cline — un assistant de code IA utilisé par 5 millions de personnes [8]. L’attaquant a publié une version piégée qui installait silencieusement OpenClaw en daemon sur la machine. 4 000 installations en 8 heures avant détection.

Le vecteur ? Un simple GitHub issue. Pas un exploit sophistiqué. L’attaque exploite le fait que les pipelines CI/CD n’ont pas été pensés pour un monde où des agents autonomes accèdent aux credentials de publication. Le token était là, l’agent l’a pris, et personne n’a rien vu pendant 8 heures.

C’est exactement le problème d’identité décrit plus haut, mais en version supply chain. Quand un agent a “un accès complet à votre vie numérique” — pour reprendre les mots du créateur d’OpenClaw — la frontière entre assistant de confiance et vecteur d’attaque est une question de configuration, pas de conception.

Les agents sont partout. Ils exécutent, déploient, interagissent entre eux. Mais les briques fondamentales — identité, traçabilité, périmètre d’accès — sont encore celles d’un monde où seuls les humains avaient des comptes. La vraie question n’est plus “faut-il adopter les agents ?”. C’est “est-ce qu’on sait qui ils sont et ce qu’ils font ?”

Sources

  1. Meta acquires Moltbook, the AI agent social network
  2. The era of “AI as text” is over. Execution is the new interface.
  3. The 8 Levels of Agentic Engineering
  4. AI Is Forcing Us To Write Good Code
  5. AI should help us produce better code - Agentic Engineering Patterns
  6. ConductorOne Survey Finds 95% of Enterprises Now Run AI Agents Autonomously as Identity Risks Escalate
  7. Enterprise identity was built for humans — not AI agents
  8. How to steal npm publish tokens by opening GitHub issues

Pour aller plus loin

Cet article a été rédigé en m’appuyant sur une IA pour m’aider à synthétiser et structurer ma veille. Les idées, le choix des sources et la relecture restent les miens.

Pour aller plus loin

AIOps is so powerful, vendors are building tools to clean up after agents break your infrastructure

— Cohesity et d'autres construisent des outils de rollback pour réparer ce que les agents IA cassent en production

Quantifying infrastructure noise in agentic coding evals

— Anthropic mesure le bruit d'infrastructure dans les benchmarks d'agents de code — la variance n'est pas que dans le modèle

A Unix Manifesto for the Age of AI

— un manifeste pour appliquer la philosophie Unix aux agents : petits, composables, avec des interfaces claires

Yann LeCun lève 1 milliard pour une IA d'un nouveau genre : que sont les « world models » ?

— Yann LeCun lève 1 Md€ pour les "world models", une approche radicalement différente des LLMs

Cet article a été rédigé en m'appuyant sur une IA pour m'aider à synthétiser et structurer ma veille. Les idées, le choix des sources et la relecture restent les miens.