Argomenti di tendenza
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Jessy Lin
Dottorato di ricerca @Berkeley_AI, visiting researcher @AIatMeta. Agenti linguistici 🤖 💬 interattivi
Mi piace davvero questa idea di avere agenti che controllano un computer con il tuo contesto e i tuoi dati, mentre tutti noi stiamo cercando di capire il giusto formato per gli agenti di utilizzo del computer/browser.
La risposta di zo è ~l'equivalente dei "computer personali" per l'era dell'IA, ed è così interessante pensare a come consenta alla persona media di scrivere script e automatizzare cose nella propria vita che altrimenti sarebbero inaccessibili.
Congratulazioni @0thernet @perceptnet !! 💻

ben guo 🪽19 nov 2025
oggi annunciamo @zocomputer.
quando abbiamo avuto l'idea – dare a tutti un server personale, alimentato da AI – sembrava folle.
ma ora, anche mia madre ha un server tutto suo.
e sta migliorando la sua vita.
lei pensa a Zo come al suo assistente personale. lo contatta per gestire il suo fitto programma, utilizzando tutto il contesto delle sue note e file. non ha più bisogno di me per assistenza tecnica.
usa anche Zo come il suo spazio di lavoro intelligente – gli chiede di organizzare i suoi file, modificare documenti e fare ricerche approfondite.
con l'aiuto di Zo, può eseguire codice dai suoi studenti laureati ed esplorare i dati da sola. (mia madre è biologa e gestisce un laboratorio di ricerca. ciao mamma)
Zo ha dato a mia madre una vera sensazione di autonomia – può fare molto di più con il suo computer.
vogliamo che tutti abbiano quella stessa sensazione. vogliamo che le persone si innamorino di creare cose per se stesse.
nel futuro che stiamo costruendo, possederemo i nostri dati, creeremo i nostri strumenti e realizzeremo API personali. possedere un computer cloud intelligente sarà proprio come possedere uno smartphone. e internet sembrerà molto più vivo.
QUESTO È PER TE MAMMA ❤️
un ringraziamento speciale a @modal, @pydantic AI e @steeldotdev per essere stati ottimi partner in vista di questo lancio. e grazie a @cursor_ai per essere stata la mia spada 🗡️
e grazie a tutti coloro che hanno creduto in noi. un piccolo gruppo: @southpkcommons, @adityaag, @chrisbest, @rauchg, @immad, @shreyas, @MattHartman, @lessin, @gokulr, @sabrinahahn, @iqramband, @whoisnnamdi, @guruchahal, @mikemarg_, @gaybrick, @SJCizmar, @magdovitz, @anneleeskates, @henloitsjoyce, @sugarjammi, @thevibethinker, @aaronmakhoffman, @Sunfield__
1,24K
Come parte del nostro recente lavoro sulle architetture a strati di memoria, ho scritto alcune delle mie riflessioni sul problema dell'apprendimento continuo in generale:
Post del blog:
Alcune delle spiegazioni vanno oltre i mem layers, quindi ho pensato che sarebbe utile evidenziarle separatamente:

2,75K
🧠 Come possiamo dotare i LLM di memoria che consenta loro di apprendere continuamente nuove cose?
Nel nostro nuovo articolo con @AIatMeta, mostriamo come il fine-tuning sparso dei livelli di memoria consenta aggiornamenti mirati per l'apprendimento continuo, con un'interferenza minima con la conoscenza esistente.
Mentre il fine-tuning completo e LoRA vedono drastici cali nelle prestazioni sui compiti riservati (📉-89% FT, -71% LoRA sui compiti di apprendimento dei fatti), i livelli di memoria apprendono la stessa quantità con molta meno dimenticanza (-11%).
🧵:

622
Principali
Ranking
Preferiti
