Populární témata
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Andrej Karpathy
Stavební @EurekaLabsAI. Dříve ředitel AI @ Tesla, zakládající tým @ OpenAI, CS231n/PhD @ Stanford. Rád trénuji velké hluboké neuronové sítě.
Nikdy jsem se jako programátor necítil tak pozadu. Profese je dramaticky refaktorovaná, protože bity přispívané programátorem jsou čím dál vzácnější. Mám pocit, že bych mohl být desetkrát silnější, kdybych jen správně spojil to, co se za poslední ~rok objevilo, a neúspěch v získání boostu mi připadá jako otázka dovedností. Je tu nová programovatelná vrstva abstrakce (kromě obvyklých vrstev níže), která zahrnuje agenty, subagenty, jejich prompty, kontexty, paměť, módy, oprávnění, nástroje, pluginy, dovednosti, hooky, MCP, LSP, slash příkazy, workflowy, integrace do IDE a potřebu vytvořit všestranný mentální model pro silné a slabé stránky zásadně stochastických, chybných, nesrozumitelných a měnících se entit, které se náhle promísí s tím, co bývalo starým dobrým inženýrstvím. Je jasné, že se rozdává nějaký mocný mimozemský nástroj, jenže neobsahuje žádný manuál a všichni se musí naučit ho držet a ovládat, zatímco zemětřesení o síle 9 otřásá profesí. Vyhrňte si rukávy, abyste nezaostávali.
385
Miluji výraz "jídlo pro myšlení" jako konkrétní, tajemnou kognitivní schopnost, kterou lidé zažívají, ale LLM pro ni nemají obdobu.
Definice: "něco, nad čím stojí za zamyšlení nebo zvážení, například mentální jídlo, které vyživuje vaši mysl nápady, postřehy nebo témata vyžadující hlubší zamyšlení. Používá se pro témata, která zpochybňují váš pohled, nabízejí nové porozumění nebo vás nutí přemýšlet o důležitých otázkách a slouží jako intelektuální stimulace."
V řeči LLM je to tedy sekvence tokenů, takže když jsou použity jako podnět pro řetězec myšlenek, jsou odměňující k tomu, aby se jim věnovalo pozornost, a to díky nějaké dosud neobjevené vnitřní odměňovací funkci. Jsem posedlý tím, jakou podobu to má. Podnět k zamyšlení.
434
Rychlý nový příspěvek: Automatické hodnocení diskusí Hacker News starých deset let zpětně
Vzal jsem všechny články z úvodní stránky Hacker News 930+diskuse z prosince 2015 a požádal GPT 5.1 Thinking API, aby provedlo zpětnou analýzu a identifikovalo nejprozíranější a nejméně předvídavé komentáře. Trvalo to ~3 hodiny na vibe code a ~1 hodinu a 60 dolarů na provoz. Nápad vznikl po včerejším článku HN, kde byl Gemini 3 požádán, aby halucinoval titulní stránku HN o deset let dopředu.
Obecněji:
1. Analýza zpětně mě vždy fascinovala jako způsob, jak trénovat model předpovědí do přednosti, takže čtení výsledků je opravdu zajímavé a
2. stojí za zamyšlení, jak to vypadá, až budoucí megamozky LLM budou moci dělat tento druh práce mnohem levněji, rychleji a lépe. Každý kousek informací, kterou přispějete na internet, může (a pravděpodobně bude) velmi podrobně prozkoumán, pokud je "zdarma". Proto jsem také dříve tweetoval – "buďte hodní, budoucí LLM nás sledují".
Gratulujeme top 10 účtům pcwalton, tptacek, paulmd, cstross, greglindahl, moxie, hannob, 0xcde4c3db, Manishearth a johncolanduoni - GPT 5.1 Thinking zjistil, že vaše komentáře byly nejbystřejším a nejprozíravějším ze všech komentářů HN v prosinci 2015.
Odkazy:
- O mnoho více podrobností v mém blogovém příspěvku
- GitHub repozitář projektu, pokud si chcete zahrát
- Stránky s výsledky pro vaše čtení

971
Top
Hodnocení
Oblíbené
