Tópicos em alta
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Andrej Karpathy
Construindo @EurekaLabsAI. Anteriormente Diretor de AI @ Tesla, equipe fundadora @ OpenAI, CS231n/PhD @ Stanford. Eu gosto de treinar grandes redes neurais profundas.
Nunca me senti tão atrasado como programador. A profissão está sendo dramaticamente refatorada, já que os bits contribuídos pelo programador são cada vez mais escassos. Tenho a sensação de que poderia ser 10 vezes mais poderoso se eu simplesmente juntar corretamente o que ficou disponível no último ~ano, e não reivindicar o aumento parece claramente uma questão de habilidade. Há uma nova camada programável de abstração para dominar (além das camadas usuais abaixo) envolvendo agentes, subagentes, seus prompts, contextos, memória, modos, permissões, ferramentas, plugins, habilidades, ganchos, MCP, LSP, comandos com barra, fluxos de trabalho, integrações com IDE e a necessidade de construir um modelo mental abrangente para os pontos fortes e armadilhas de entidades fundamentalmente estocásticas, falíveis, ininteligíveis e mutáveis que de repente se misturam com o que costumava ser a boa e velha engenharia. Claramente, alguma ferramenta alienígena poderosa foi distribuída, exceto que não vem com manual e todos precisam descobrir como segurá-la e operá-la, enquanto o terremoto de magnitude 9 está abalando a profissão. Arregaçe as mangas para não ficar para trás.
481
Adoro a expressão "alimento para o pensamento" como uma capacidade cognitiva concreta e misteriosa que os humanos experimentam, mas para a qual LLMs não têm equivalente.
Definição: "algo que vale a pena pensar ou considerar, como uma refeição mental que alimenta sua mente com ideias, percepções ou questões que exigem reflexão mais profunda. É usado para temas que desafiam sua perspectiva, oferecem nova compreensão ou fazem você refletir sobre questões importantes, atuando como estímulo intelectual."
Então, na linguagem de LLM, é uma sequência de tokens de modo que, quando usados como prompt para a cadeia de pensamento, as amostras são recompensadoras para serem observadas, por meio de alguma função de recompensa intrínseca ainda não descoberta. Obcecado com a forma que ele assume. Motivo de reflexão.
529
Post novo rápido: Auto-avaliando discussões de Hacker News de décadas atrás com retrospectiva
Peguei todo o artigo de capa do 930 Hacker News + discussão de dezembro de 2015 e pedi à API de Pensamento do GPT 5.1 que fizesse uma análise retrospectiva para identificar os comentários mais ou menos prescientes. Isso levou ~3 horas para o vibe code e ~1 hora e $60 para rodar. A ideia surgiu ontem com o artigo da HN, onde o Gemini 3 foi convidado a alucinar a capa da HN uma década depois.
De forma mais geral:
1. Análise retrospectiva sempre me fascinou como uma forma de treinar seu modelo de previsão futura, então ler os resultados é realmente interessante e
2. vale a pena pensar como será quando os Megaminds LLM do futuro podem fazer esse tipo de trabalho muito mais barato, rápido e melhor. Cada pedaço de informação que você contribui para a internet pode (e provavelmente será) analisado em detalhes se for "gratuito". Por isso também meu tweet anterior de um tempo atrás - "seja bom, futuros LLMs estão de olho".
Parabéns às 10 principais contas pcwalton, tptacek, paulmd, cstross, greglindahl, moxie, hannob, 0xcde4c3db, Manishearth e johncolanduoni - GPT 5.1. O Thinking achou seus comentários os mais perspicazes e perspicazes de todos os comentários sobre HN em dezembro de 2015.
Links:
- Muito mais detalhes no meu post no blog
- Repositório do projeto no GitHub caso você queira jogar
- As páginas de resultados reais para seu prazer de leitura

1,05K
Melhores
Classificação
Favoritos
