Tópicos populares
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Um artigo que vale a pena prestar atenção.
Apresenta a Gestão de Contexto Sem Perdas (LCM), que reformula a forma como os agentes lidam com contextos longos.
Supera o Claude Code em tarefas de contexto longo.
Modelos de Linguagem Recursivos dão ao modelo total autonomia para escrever seus próprios scripts de memória. O LCM retoma esse poder, entregando-o a um motor determinístico que comprime mensagens antigas em um DAG hierárquico, mantendo ponteiros sem perdas para cada original. Menos expressivo em teoria, muito mais confiável na prática.
Os resultados:
O agente deles (Volt, na Opus 4.6) supera o Claude Code em *todas* as extensões de contexto de 32K a 1M tokens no benchmark OOLONG. +29,2 pontos de melhoria média em comparação com os +24,7 do Claude Code. A diferença aumenta em contextos mais longos.
A implicação é uma que continuamos a reaprender com a história da engenharia de software: como você gerencia o que o modelo vê pode ser mais importante do que dar ao modelo ferramentas para gerenciá-lo por conta própria. Cada estrutura de agente que é enviada com estratégias de memória "deixe o modelo descobrir" pode estar se baseando na abstração errada completamente.
Artigo:
Aprenda a construir agentes de IA eficazes em nossa academia:

Top
Classificação
Favoritos
