Un document qui mérite une attention particulière. Il présente la Gestion de Contexte Sans Perte (LCM), qui redéfinit la manière dont les agents gèrent les longs contextes. Il surpasse Claude Code sur les tâches à long contexte. Les Modèles de Langage Récursifs donnent au modèle une autonomie totale pour écrire ses propres scripts de mémoire. LCM reprend ce pouvoir, le confiant à un moteur déterministe qui compresse les anciens messages dans un DAG hiérarchique tout en conservant des pointeurs sans perte vers chaque original. Moins expressif en théorie, beaucoup plus fiable en pratique. Les résultats : Leur agent (Volt, sur Opus 4.6) bat Claude Code à *toutes* les longueurs de contexte de 32K à 1M de tokens sur le benchmark OOLONG. Amélioration moyenne de +29,2 points contre +24,7 de Claude Code. L'écart se creuse avec des contextes plus longs. L'implication est une leçon que nous continuons d'apprendre de l'histoire de l'ingénierie logicielle : la manière dont vous gérez ce que le modèle voit peut être plus importante que de donner au modèle des outils pour le gérer lui-même. Chaque cadre d'agent expédié avec des stratégies de mémoire "laissez le modèle s'en débrouiller" pourrait reposer sur la mauvaise abstraction.