Popularne tematy
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Andrej Karpathy
Budynek @EurekaLabsAI. Wcześniej dyrektor AI @ Tesla, zespół założycielski @ OpenAI, CS231n/PhD @ Stanford. Lubię trenować duże, głębokie sieci neuronowe.
Nigdy nie czułem się tak bardzo w tyle jako programista. Zawód jest dramatycznie przekształcany, ponieważ wkład programisty staje się coraz bardziej rzadki i rozproszony. Mam wrażenie, że mógłbym być 10 razy bardziej wydajny, gdybym tylko odpowiednio połączył to, co stało się dostępne w ciągu ostatniego ~roku, a brak umiejętności, by to wykorzystać, wydaje się zdecydowanie problemem ze zdolnościami. Pojawiła się nowa programowalna warstwa abstrakcji do opanowania (oprócz zwykłych warstw poniżej), obejmująca agentów, podagentów, ich polecenia, konteksty, pamięć, tryby, uprawnienia, narzędzia, wtyczki, umiejętności, haki, MCP, LSP, polecenia slash, przepływy pracy, integracje IDE oraz potrzebę zbudowania wszechstronnego modelu mentalnego dla mocnych i słabych stron zasadniczo stochastycznych, omylnych, nieczytelnych i zmieniających się bytów, które nagle mieszają się z tym, co kiedyś było tradycyjnym inżynierią. Wyraźnie przekazano jakieś potężne obce narzędzie, ale nie ma do niego instrukcji, a wszyscy muszą dowiedzieć się, jak je trzymać i obsługiwać, podczas gdy wynikająca z tego trzęsienie ziemi o magnitudzie 9 wstrząsa zawodem. Zakasać rękawy, aby nie zostać w tyle.
405
Uwielbiam wyrażenie „jedzenie dla myśli” jako konkretną, tajemniczą zdolność poznawczą, którą ludzie doświadczają, ale LLM nie mają jej odpowiednika.
Definicja: „coś, co warto przemyśleć lub rozważyć, jak mentalny posiłek, który odżywia twój umysł pomysłami, spostrzeżeniami lub kwestiami, które wymagają głębszej refleksji. Używa się go w odniesieniu do tematów, które kwestionują twoją perspektywę, oferują nowe zrozumienie lub skłaniają do rozważania ważnych pytań, działając jako stymulacja intelektualna.”
Więc w języku LLM to sekwencja tokenów, która, gdy jest używana jako podpowiedź do łańcucha myśli, sprawia, że próbki są nagradzające do rozważenia, poprzez jakąś jeszcze nieodkrytą wewnętrzną funkcję nagrody. Zafascynowany tym, w jakiej formie to występuje. Jedzenie dla myśli.
449
Szybki nowy post: Automatyczne ocenianie dyskusji na Hacker News sprzed dekady z perspektywy czasu
Wziąłem wszystkie 930 artykułów i dyskusji na stronie głównej Hacker News z grudnia 2015 roku i poprosiłem API GPT 5.1 Thinking o przeprowadzenie analizy z perspektywy czasu, aby zidentyfikować najbardziej/najmniej przenikliwe komentarze. Zajęło to około 3 godziny na kodowanie i około 1 godziny oraz 60 dolarów na uruchomienie. Pomysł zrodził się z artykułu HN z wczoraj, w którym poproszono Gemini 3 o wyobrażenie sobie strony głównej HN za dekadę.
Ogólnie rzecz biorąc:
1. analiza z perspektywy czasu zawsze mnie fascynowała jako sposób na trenowanie modelu prognozowania, więc czytanie wyników jest naprawdę interesujące i
2. warto zastanowić się, jak to będzie wyglądać, gdy megamózgi LLM przyszłości będą mogły wykonywać tego rodzaju prace znacznie taniej, szybciej i lepiej. Każda informacja, którą wnosisz do internetu, może (i prawdopodobnie będzie) dokładnie analizowana, jeśli jest "darmowa". Stąd także mój wcześniejszy tweet sprzed pewnego czasu - "bądź dobry, przyszłe LLM-y obserwują".
Gratulacje dla 10 najlepszych kont: pcwalton, tptacek, paulmd, cstross, greglindahl, moxie, hannob, 0xcde4c3db, Manishearth i johncolanduoni - GPT 5.1 Thinking uznało wasze komentarze za najbardziej wnikliwe i przenikliwe ze wszystkich komentarzy HN w grudniu 2015 roku.
Linki:
- Dużo więcej szczegółów w moim poście na blogu
- Repozytorium GitHub projektu, jeśli chcesz spróbować
- Rzeczywiste strony wyników dla twojej przyjemności czytania

984
Najlepsze
Ranking
Ulubione
