Populaire onderwerpen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Het gebeurt: autonome AI-onderzoek door AI-agenten op nanochat!
629 regels code om GPT-2 te trainen. Eén markdown-bestand dat de onderzoeksagenda definieert. Dat is het hele onderzoekslaboratorium.
AI-onderzoekers zouden de eersten kunnen zijn die door AI worden vervangen. De meest vermakelijke uitkomst is de meest waarschijnlijke.


8 mrt, 03:53
Ik heb het "autoresearch" project verpakt in een nieuwe zelfstandige minimale repo als mensen in het weekend willen spelen. Het is in wezen de kern van nanochat LLM-training, teruggebracht tot een versie met één GPU en één bestand van ~630 regels code, dan:
- de mens werkt aan de prompt (.md)
- de AI-agent werkt aan de trainingscode (.py)
Het doel is om je agents te ontwerpen zodat ze de snelste onderzoeksvoortgang oneindig maken zonder enige betrokkenheid van jouw kant. In de afbeelding is elke stip een complete LLM-trainingsronde die precies 5 minuten duurt. De agent werkt in een autonome lus op een git feature branch en accumuleert git-commits naar het trainingsscript terwijl het betere instellingen vindt (met een lagere validatieverlies aan het einde) van de architectuur van het neurale netwerk, de optimizer, alle hyperparameters, enz. Je kunt je voorstellen dat je de onderzoeksvoortgang van verschillende prompts, verschillende agents, enz. vergelijkt.
Deel code, deel sci-fi, en een snufje psychose :)

Het oproepen van GPT-5.4 xhigh en Claude Opus 4.6, ze 16 GPU's geven en ze autonoom onderzoek laten doen op een zonnige zaterdag is extreem bevredigend.
Het is ook een vrij goede evaluatie voor welk model de betere onderzoeker is. Misschien post ik morgen interessante resultaten.
245
Boven
Positie
Favorieten
