Populaire onderwerpen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Een model met 24 miljard parameters is net op een laptop uitgevoerd en koos het juiste hulpmiddel in minder dan een halve seconde.
Het echte verhaal is dat tool-calling agents eindelijk snel genoeg zijn geworden om als software aan te voelen.
Liquid heeft LFM2-24B-A2B gebouwd met een hybride architectuur die convolutieblokken mengt met gegroepeerde query-aandacht in een verhouding van 1:3.
Slechts 2,3 miljard parameters worden geactiveerd per token, hoewel het volledige model 24 miljard bevat.
Die spaarzame activatiepatroon is de reden waarom het in 14,5 GB geheugen past en hulpmiddelen in 385 milliseconden op een M4 Max verzendt.
De architectuur is ontworpen via hardware-in-the-loop zoekopdrachten, wat betekent dat ze de modelstructuur hebben geoptimaliseerd door deze direct op de chips te testen waarop het zou draaien. Geen cloudvertalingslaag.
Geen API-ronde. Het model, de hulpmiddelen en uw gegevens blijven op de machine.
Dit ontgrendelt drie dingen die voorheen onpraktisch waren:
1. Gereguleerde industrieën kunnen agents op werknemerslaptops draaien zonder dat gegevens het apparaat verlaten.
2. Ontwikkelaars kunnen multi-tool workflows prototypen zonder API-sleutels of snelheidslimieten te beheren.
3. Beveiligingsteams krijgen volledige auditsporen zonder leverancierssubprocessoren in de lus.
Het model bereikte 80% nauwkeurigheid bij de selectie van hulpmiddelen in één stap over 67 hulpmiddelen verspreid over 13 MCP-servers.
Als deze prestatie op schaal aanhoudt, moeten twee aannames worden bijgewerkt.
Ten eerste zijn agents op het apparaat niet langer een afweging voor de batterijduur; ze zijn een compliancefunctie.
Ten tweede verschuift de bottleneck in agentische workflows van modelcapaciteit naar de volwassenheid van het hulpmiddelenecosysteem.

19 uur geleden
> 385ms gemiddelde toolselectie.
> 67 tools op 13 MCP-servers.
> 14,5GB geheugengebruik.
> Geen netwerkverzoeken.
LocalCowork is een AI-agent die draait op een MacBook. Open source.
🧵

Geweldig werk van: @liquidai @ramin_m_h
211
Boven
Positie
Favorieten
