Trendaavat aiheet
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Andrej Karpathy
Rakennus @EurekaLabsAI. Aiemmin AI @ Teslan johtaja, perustajatiimi @ OpenAI, CS231n/PhD @ Stanford. Tykkään treenata suuria syviä hermoverkkoja.
Minulla oli sama ajatus, joten olen kokeillut sitä nanochatissa. Esimerkiksi tässä on 8 agenttia (4 Claudea, 4 codexia), joista kukin suorittaa 1 GPU nanochat-kokeita (yrittäen poistaa logit-softcapin ilman regressiota). TLDR on, että se ei toimi ja se on sekasotku... Mutta se on silti todella kaunis :)
Kokeilin muutamia kokoonpanoja: 8 itsenäistä yksintutkijaa, 1 päätutkija, joka antoi töitä 8 nuoremmalle tutkijalle jne. Jokainen tutkimusohjelma on git-haara, jokainen tutkija haarautuu sen ominaisuushaaraksi, git-työpuita eristämistä varten, yksinkertaiset tiedostot viestintään, Docker/VM:t ohitetaan yksinkertaisuuden vuoksi tällä hetkellä (mielestäni ohjeet riittävät estämään häiriöt). Tutkimusorganisaatio toimii tmux-ikkunaruudukoissa, joissa on interaktiivisia sessioita (kuten Teams), joten on kaunis katsella, nähdä heidän työnsä ja "ottaa ohjat" tarvittaessa, eli ei -p:tä.
Mutta okei, syy siihen, miksi se ei toimi tähän asti, on se, että agenttien ideat ovat laatikosta ulospäin aika huonoja, jopa korkeimmalla älykkyydellä. He eivät ajattele tarkkaan kokeiden suunnittelussa, tekevät hieman järjettömiä variaatioita, eivät luo vahvoja perusviivoja eivätkä poista asioita kunnolla, eivätkä hallitse tarkasti suoritusaikaa tai floppeja. (Esimerkiksi eräs agentti "havaitsi" eilen, että verkon piilotetun koon kasvattaminen parantaa validointihäviötä, mikä on täysin virheellinen tulos, kun otetaan huomioon, että isommassa verkossa on pienempi validointihäviö äärettömässä datajärjestelmässä, mutta se myös harjoittelee paljon pidempään, ei ole selvää, miksi minun piti tulla tuomaan esiin se). He ovat erittäin hyviä toteuttamaan minkä tahansa hyvin perustellun ja kuvatun idean, mutta eivät luo niitä luovasti.
Mutta tavoitteena on, että ohjelmoit nyt organisaation (esim. "tutkimusorganisaation") ja sen yksittäiset agentit, joten "lähdekoodi" on kokoelma kehotuksia, taitoja, työkaluja jne. ja prosesseja, jotka sen muodostavat. Esimerkiksi päivittäinen standup aamulla on nyt osa "organisaatiokoodia". Ja nanochat-esikoulutuksen optimointi on vain yksi monista tehtävistä (melkein kuin arviointi). Sitten – kuinka nopeasti tutkimusorganisaatiosi saa etenemistä satunnaisella tehtävällä?

Thomas Wolf28.2.2026
Miksi NanoGPT-speedrun-haaste ei ole vielä täysin tekoälyn automatisoitua tutkimusta?
727
Tokenien kysynnän lähestyessä on merkittäviä mahdollisuuksia orkestroida taustalla oleva muisti+laskenta *juuri sopivasti* LLM:ille.
Perustavanlaatuinen ja ei-ilmeinen rajoite on, että sirun valmistusprosessin seurauksena saat kaksi täysin erilaista muistipoolia (myös eri fyysisistä toteutuksista): 1) sirun sisäinen SRAM, joka sijaitsee heti laskentayksiköiden vieressä, on uskomattoman nopea mutta hyvin pienikapasiteettinen, ja 2) sirun ulkopuolinen DRAM, jolla on erittäin suuri kapasiteetti, Mutta sisältöä voi vain imeä pitkän pilven läpi. Tämän lisäksi arkkitehtuurissa on monia yksityiskohtia (esim. systoliset taulukot), numeeriset jne.
Optimaalisen fyysisen alustan suunnittelu ja muistin+laskennan orkestrointi LLM:ien ylimpien volyymityönkulujen (päättelyesitäyttö/dekoodaus, koulutus/hienosäätö jne.) parhaalla läpäisevyydellä/viiveellä/$ on todennäköisesti tämän päivän mielenkiintoisin älyllinen pulma, jossa on suurimmat palkinnot (\cite 4.6T NVDA:ssa). Kaikki tämä saadakseni paljon tokeneita, nopeasti ja halvalla. Voidaan väittää, että työnkulku, jolla voi olla eniten merkitystä (päättelydekoodaus *ja* pitkissä token-konteksteissa tiukoissa agenttisissa silmukoissa) on vaikein saavuttaa samanaikaisesti ~molempien nykyisten leirien (HBM-ensimmäinen NVIDIA-viereinen ja SRAM-ensimmäinen Cerebras-viereinen). Joka tapauksessa MatX-tiimi on A++-tasolla, joten on ilo saada pieni osallistuminen ja onnea palkankorotuksesta!

Reiner Pope25.2.2026
Rakennamme LLM-piiriä, joka tarjoaa paljon suuremman läpimenon kuin mikään muu piiri ja saavuttaa samalla alhaisimman viiveen. Kutsumme sitä MatX Oneksi.
MatX One -piiri perustuu jaettavaan systoliseen ryhmään, jolla on energia- ja pinta-alatehokkuus, josta suuret systoliset antennit ovat kuuluisia, ja joka hyödyntää myös paljon pienempiä, joustavia muotoja omaavia matriiseja. Siru yhdistää SRAM-ensisijaisten suunnitelmien matalan viiveen HBM:n pitkäaikaiseen tukeen. Nämä elementit sekä tuore näkökulma numeeriseen järjestelmään tarjoavat LLM:ille suuremman läpimenon kuin mikään ilmoitettu järjestelmä, samalla kun ne vastaavat SRAM-ensisijaisten suunnitelmien viivettä. Korkeampi läpimenonopeus ja alhaisempi viive antavat sinulle älykkäämpiä ja nopeampia malleja tilausrahallesi.
Olemme keränneet 500 miljoonan dollarin Series B -rahoituksen kehityksen päättämiseksi ja valmistuksen nopeaksi skaalaamiseksi, ja teippaus tapahtuu alle vuodessa. Kierrosta johti Jane Street, yksi teknisesti taitavimmista Wall Streetin yrityksistä, sekä Situational Awareness LP, jonka perustaja @leopoldasch kirjoitti AGI:n lopullisen muistion. Osallistujiin kuuluvat @sparkcapital, @danielgross ja @natfriedman's Fund, @patrickc and @collision, @TriatomicCap, @HarpoonVentures, @karpathy, @dwarkesh_sp ja muut. Toivotamme myös tervetulleiksi sijoittajat koko toimitusketjussa, mukaan lukien Marvell ja Alchip.
@MikeGunter_ ja minä perustimme MatX:n, koska koimme, että paras piiri LLM:ille tulisi suunnitella alusta lähtökohtaisesti ja syvällistä ymmärrystä siitä, mitä LLM:t tarvitsevat ja miten ne kehittyvät. Olemme valmiita luopumaan pienmallien suorituskyvystä, pienistä työmääristä ja jopa ohjelmoinnin helppoudesta toimittaaksemme tällaisen piirin.
Olemme nyt 100 hengen tiimi, jossa ihmiset ajattelevat kaikkea oppimisnopeusaikatauluista Swing Modulo -aikataulutukseen, guard/round/sticky -osiin ja sokko-pariyhteyksiin – kaikki samassa rakennuksessa. Jos haluat auttaa meitä suunnittelemaan, suunnittelemaan ja ottamaan käyttöön useita sirusukupolvia suurissa määrissä, harkitse liittymistä.
248
CLI:t ovat todella jännittäviä juuri siksi, että ne ovat "legacy"-teknologiaa, mikä tarkoittaa, että tekoälyagentit voivat käyttää niitä natiivisti ja helposti yhdistää, olla vuorovaikutuksessa niiden kanssa koko terminaalityökalupakin kautta.
Esimerkiksi pyydä Claude/Codex-agenttiasi asentamaan tämä uusi Polymarketin komentorivi ja pyydä mielivaltaisia kojelautoja, rajapintoja tai logiikkaa. Agentit rakentavat sen puolestasi. Asenna myös Githubin komentojärjestelmä, niin voit pyytää heitä navigoimaan repositoissa, näkemään ongelmat, PR:t, keskustelut ja jopa itse koodin.
Esimerkki: Claude rakensi tämän terminaalin kojelaudan ~3 minuutissa, suurimman volyymin polymarkettien ja 24 tunnin muutoksen ansiosta. Tai voit tehdä siitä web-sovelluksen tai mitä tahansa haluat. Vielä tehokkaampaa, kun käytät sitä isompien putkien moduulina.
Jos sinulla on jotain tuotetta tai palvelua, mieti: voivatko välittäjät päästä niihin käsiksi ja käyttää?
- Ovatko legacy-dokumenttisi (ihmisille) edes vietävissä Markdownissa?
- Oletko kirjoittanut Taitoja tuotteeseesi?
- voiko tuotettasi/palveluasi käyttää CLI:n kautta? Tai MCP?
- ...
On vuosi 2026. Rakenna. Sille. Agentit.


Suhail Kakar24.2.2026
Esittelyssä Polymarket CLI – nopein tapa tekoälyagenteille päästä ennustemarkkinoille
rakennettu ruosteella. Agenttisi voi kysyä markkinoita, tehdä kauppoja ja hakea tietoja – kaikki terminaalista
Nopea, kevyt, ei ylimääräistä kulua
191
Johtavat
Rankkaus
Suosikit
