TBM 406: Seeing Everything, Understanding Nothing (The Context Trap)
- Auteur
- John Cutler
- Thème
- Leadership
- Mots-clés
- contexte, leadership, cognition, IA, management, interaction
- Ton
- opinion
Résumé
John Cutler critique l'idée dominante selon laquelle assembler suffisamment de contexte — dans les prompts IA comme dans les organisations — produit automatiquement de la compréhension. En s'appuyant sur le modèle 4E de la cognition, il argue que le contexte n'est pas un paquet qu'on transmet, mais quelque chose qui se construit dans l'interaction. L'IA pousse le knowledge work vers un "mode solo" extrême qui appauvrit le contexte partagé réel.
💡 Pourquoi ça compte
Cet article offre un cadre théorique pour comprendre pourquoi les agents IA — malgré leur accès à des quantités massives de contexte — ne produisent pas toujours les résultats attendus. C'est aussi un avertissement pour les leaders qui pensent que cascader de l'information via des outils IA remplace la nécessité d'interactions humaines réelles.
Analyse approfondie
Le contexte comme marchandise
L'IA est en train de suralimenter des hypothèses héritées du leadership traditionnel sur le contexte et le contrôle. Dans le discours autour de l'IA, le "contexte" est de plus en plus présenté comme la nouvelle source de vérité. C'est une idée familière et séduisante : si suffisamment d'information peut être assemblée et présentée, la clarté et le contrôle suivront.
L'ingénierie du contexte (context engineering) traite fréquemment le contexte comme un paquet qui peut être transmis ou fusionné. "Je partagerai — ou mon prompt ou mon système de retrieval partagera — ce que je sais ; tu partageras ce que tu sais ; et nous aurons tous les deux nos besoins satisfaits."
Cette approche suppose que le contexte partagé peut être construit en combinant des contextes individuels, et que la compréhension est le recouvrement entre ce que chaque partie sait déjà.
Le mode solo du knowledge work
L'IA pousse le travail intellectuel vers un mode solo extrême. Après que la pandémie a normalisé le travail à distance et asynchrone, les individus opèrent désormais dans des océans de fichiers markdown et de "contexte", recombinant et remixant sans cesse de l'information tout en interagissant de moins en moins — et en générant peu de contexte véritablement partagé (ou nouveau).
Traduit en termes de leadership, c'est similaire à l'idée que l'alignement peut être atteint en cascadant du contexte vers le bas et en agrégeant de l'information vers le haut, surtout si un LLM peut être placé au-dessus de ce contexte pour le synthétiser.
Le contexte se produit dans l'interaction
Mais le contexte est produit par les interactions elles-mêmes. Le contexte, en ce sens, n'est pas quelque chose que les acteurs apportent dans la salle et mettent en commun. C'est quelque chose que le système produit au fur et à mesure qu'ils s'engagent les uns avec les autres. Le contexte est autant une fonction du cadrage et de l'interaction que des conditions.
Le modèle de Shannon-Weaver et ses limites
Le modèle classique de Shannon-Weaver réduit la communication à un problème de transmission : un émetteur encode un message, le transmet par un canal, un récepteur le décode. Le contexte sert de fond nécessaire pour interpréter correctement le message. C'est analogue à demander aux participants de lire le pré-read avant la réunion.
La version populiste de l'IA : si les narratifs des vendeurs sont pris au pied de la lettre, le contexte devient une sorte de solvant universel — versez-en assez et magiquement vous obtenez de la clarté.
Le modèle 4E de la cognition
Cutler invoque le modèle 4E de la cognition (embodied, embedded, extended, enactive) pour rappeler que la compréhension implique un engagement actif au sein d'une situation partagée. Elle se produit à travers les corps, les outils, les environnements et les actions — pas simplement à travers la transmission d'information.
"Nous savons tous qu'un pré-read seul ne fait pas une réunion. Ce sont les interactions qui font la réunion." Cette observation simple mais puissante s'applique directement à la façon dont nous utilisons l'IA : injecter plus de contexte dans un prompt ne produit pas automatiquement plus de compréhension.