Trend Olan Konular
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Andrej Karpathy
Bina @EurekaLabsAI. Daha önce AI Direktörü @ Tesla, kurucu ekip @ OpenAI, CS231n/PhD @ Stanford. Büyük derin sinir ağlarını eğitmeyi severim.
Bir programcı olarak hiç bu kadar geride kalmış hissetmemiştim. Meslek, programcının katkı sağladığı kısımlar giderek daha seyrek ve arada kaldıkça değiştikçe dramatik şekilde yeniden düzenleniyor. Son ~yılda mevcut olanları düzgünce birleştirirsem 10 kat daha güçlü olabileceğimi düşünüyorum ve boost'u talep edememek kesinlikle yetenek sorunu gibi geliyor. Aşağıdaki olağan katmanlara ek olarak, ajanlar, alt ajanlar, onların istmleri, bağlamları, bellekleri, modları, izinleri, araçları, eklentileri, becerileri, kancaları, MCP, LSP, slash komutları, iş akışları, IDE entegrasyonlarını ve temelde stokastik, yanlış, anlaşılmaz ve değişen varlıkların güçlü ve tuzaklarını kapsayan her şeyi kapsayan bir zihinsel model oluşturma ihtiyacı dahil olmak üzere (aşağıdaki olağan katmanlara ek olarak) ustalaşması gereken yeni bir soyutlama katmanı var. Açıkça güçlü bir uzaylı aracı dağıtıldı ama kılavuzu yok ve herkes onu nasıl tutacağını ve kullanacağını öğrenmek zorunda, sonuç olarak çıkan 9 büyüklüğündeki deprem ise mesleği sarsıyor. Geri kalmamak için kollarınızı sıvrayın.
336
"Düşünce için bes" ifadesini insanların yaşadığı somut, gizemli bilişsel yetenek olarak çok seviyorum ama LLM'lerin karşılığı yok.
Tanım: "Düşünmeye veya düşünmeye değer bir şey, zihninizi daha derin düşünce gerektiren fikirler, içgörülerle veya konularla besleyen zihinsel bir öğün gibi. Bakış açınızı zorlayan, yeni anlayış sunan veya önemli soruları düşündüren konularda kullanılır ve entelektüel bir uyarım olarak hizmet verir."
Yani LLM dilinde bu, bir dizi token olur ve düşünce zinciri için prompt olarak kullanıldığında, örnekler henüz keşfedilmemiş bir içsel ödül fonksiyonu aracılığıyla takip edilir. Hangi biçimde olduğunu takıntılı hissediyorum. Düşündürücü şey.
397
Hızlı yeni gönderi: On yıllık Hacker News tartışmalarını geriye dönüp bakarak otomatik olarak değerlendirme
Aralık 2015'teki tüm 930 ön sayfa Hacker News makalesi+tartışmalarını aldım, GPT 5.1 Thinking API'den en çok/en az öngörülü yorumları belirlemek için geriye dönük bir analiz yapmasını istedim. Bu modun vibe kodu ~3 saat, çalıştırması ise ~1 saat ve 60 dolar aldı. Bu fikir, dün Gemini 3'ün HN ön sayfasını on yıl önce halüsinasyon görmesi istendiği HN makalesinden doğdu.
Daha genel olarak:
1. Geriye dönüp bakan analiz, ileriye dönük tahmin modelinizi eğitmenin bir yolu olarak her zaman ilgimi çekmiştir, bu yüzden sonuçları okumak gerçekten ilginç ve
2. LLM geleceğin megamind'larının bu tür işleri çok daha ucuz, hızlı ve daha iyi yapabildiği zaman nasıl göründüğünü düşünmeye değer. İnternete katkıda bulunduğunuz her bir bilgi, eğer "ücretsiz" ise, büyük detaylarla incelenebilir (ve muhtemelen de incelenecektir). Bu yüzden bir süre önce yazdığım tweet - "iyi olun, gelecekteki LLM'ler izliyor".
En iyi 10 hesabı tebrikler pcwalton, tptacek, paulmd, cstross, greglindahl, moxie, hannob, 0xcde4c3db, Manishearth ve johncolanduoni - GPT 5.1 Thinking Aralık 2015'te HN'nin yorumları arasında en öngörülü ve öngörülü yorumlar olarak buldu.
Bağlantı:
- Blog yazımda çok daha fazla detay
- Oynamak isterseniz projenin GitHub deposu
- Okuma zevkiniz için gerçek sonuç sayfaları

936
En İyiler
Sıralama
Takip Listesi
