Trendande ämnen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Andrej Karpathy
Bygga @EurekaLabsAI. Tidigare chef för AI @ Tesla, grundande team @ OpenAI, CS231n/PhD @ Stanford. Jag gillar att träna stora djupa neurala nätverk.
Jag har aldrig känt mig så här mycket efter som programmerare. Yrket omstruktureras dramatiskt eftersom de delar som programmeraren bidrar med blir allt mer glessa. Jag har en känsla av att jag skulle kunna vara tio gånger starkare om jag bara satte ihop det som blivit tillgängligt under det senaste ~året och att inte ta boosten känns definitivt som en skicklighetsfråga. Det finns ett nytt programmerbart abstraktionslager att bemästra (utöver de vanliga lagren nedan) som involverar agenter, subagenter, deras prompts, kontexter, minne, modes, behörigheter, verktyg, plugins, färdigheter, krokar, MCP, LSP, slash-kommandon, arbetsflöden, IDE-integrationer och ett behov av att bygga en heltäckande mental modell för styrkor och fallgropar hos fundamentalt stokastiska, bristfälliga, obegripliga och föränderliga entiteter som plötsligt blandas med vad som brukade vara hederlig gammaldags ingenjörskonst. Uppenbarligen har något kraftfullt utomjordiskt verktyg delats ut, men det kommer utan manual och alla måste lista ut hur man håller det och använder det, medan den resulterande jordbävningen med magnitud 9 skakar yrket. Kavla upp ärmarna för att inte halka efter.
514
Jag älskar uttrycket "mat för tanke" som en konkret, mystisk kognitiv förmåga som människor upplever men som LLM inte har något motsvarighet till.
Definition: "något värt att fundera på eller överväga, som en mental måltid som ger näring åt ditt sinne med idéer, insikter eller frågor som kräver djupare reflektion. Den används för ämnen som utmanar ditt perspektiv, ger ny förståelse eller får dig att fundera över viktiga frågor, och fungerar som intellektuell stimulans."
Så i LLM-språk är det en sekvens av tokens så att när de används som prompt för tankekedjan är proverna belönande att ta hand om, via någon ännu oupptäckt inneboende belöningsfunktion. Besatt av vilken form det tar. Tankeställare.
559
Snabbt nytt inlägg: Automatisk gradering av tio år gamla diskussioner på Hacker News med efterklokhet
Jag tog alla 930 förstasidesartikel på Hacker News + diskussion från december 2015 och bad GPT 5.1 Thinking API att göra en efterhandsanalys för att identifiera de mest och minst förutseende kommentarerna. Det tog ~3 timmar att vibbe kod och ~1 timme och 60 dollar att köra. Idén väcktes av HN-artikeln igår där Gemini 3 ombads hallucinera HN:s förstasida ett decennium framåt.
Mer generellt:
1. efterklokhetsanalys har alltid fascinerat mig som ett sätt att träna din framåtriktade prediktionsmodell, så att läsa resultaten är verkligen intressant och
2. Det är värt att fundera på hur det ser ut när framtidens LLM-megahjärnor kan göra den här typen av arbete mycket billigare, snabbare och bättre. Varje liten information du bidrar med till internet kan (och kommer troligen att bli) granskad i detalj om den är "gratis". Därför också min tidigare tweet från ett tag tillbaka – "var snäll, framtida LLM:er tittar".
Grattis till de 10 bästa kontona pcwalton, tptacek, paulmd, cstross, greglindahl, moxie, hannob, 0xcde4c3db, Manishearth och johncolanduoni - GPT 5.1 Thinking fann dina kommentarer vara de mest insiktsfulla och förutseende av alla kommentarer från HN i december 2015.
Länkar:
- Mycket mer detaljer i mitt blogginlägg
- GitHub-repo för projektet om du vill spela
- De faktiska resultatsidorna för din läsglädje

1,06K
Topp
Rankning
Favoriter
