Populární témata
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Hrál jsem na konceptu, který bych nazval "kontextová ontologie" - hlavně proto, že bych si přál mít jediné místo, kde bych mohl vidět, odkud kontext pochází a v jakých nápovědách se používá.
užitečný kontext pro LLM k vygenerování reakce nebo přijetí akce může zahrnovat věci jako (1) cíl na vysoké úrovni, (2) aktuální úkol/oblast zaměření, (3) souhrnné informace z relevantních minulých úkolů, (4) poznatky z předchozích pokusů atd.
protože od našich agentů očekáváme více (delší úkoly, složitější projekty atd.), surová paměť se rychle stává tokenově těžkou a zašuměnou, což snižuje kvalitu výstupu LLM. Většina složitějších aplikací umělé inteligence má nějaký souhrnný kontext (předpokládám) a více zdrojů kontextu.
Myšlenkou je definovat ontologii, pro jaký kontext ukládáte*, jak jej strukturovat a co načíst pro každou výzvu ve vašem systému.
*Obchodem nemyslím nutně v databázi AI. IMPO se zdá holističtější považovat data uložená v jakékoli aplikaci za součást paměti AI (např. připojení api/MCP). Možná by to tato ontologie měla také specifikovat.
Když to vezmeme ještě o krok dále, můžete z toho udělat dynamickou ontologii, kterou může umělá inteligence spravovat a testovat, a pak ji vložit do prostředí RL, aby agenti mohli sami zlepšovat správu kontextu (hypoteticky)
Nejsem si jistý, zda by zde měla být zahrnuta sumarizační strategie, ale na vysoké úrovni to dává smysl. složitější, protože většina lidí shrnuje informace při požití, takže byste museli znovu shrnout předchozí požití pokaždé, když je změníte (pro testování změn a sebevylepšování) - ale myslím, že tento problém přetrvává bez ohledu na to.
Nemyslím si, že je zde něco zvlášť nového. Prostě přemýšlím nahlas, když se snažím interně vytvořit nějaký rámec, abych zmapoval různé strategie, které jsem viděl.
12,33K
Top
Hodnocení
Oblíbené