Jongens, het spijt me dat het robotics OS-team @openmind_agi de laatste tijd geen "doorbraken" maakt. We trainen ons eigen model niet. Hardware heeft zijn eigen basislocomotie ingebouwd. AI-modellen bieden al natuurlijke taalinteractie. Maar na zoveel "doorbraken", waarom dansen robots voornamelijk en boksen ze, maar werken ze nog niet? Hebben we echt zoveel "doorbraken" nodig om toepassingen te laten werken? OpenMind bouwt Android voor robotica. We maken geen "doorbraken", maar we laten doorbraken werken. Na gesprekken met verschillende belanghebbenden rond het OS, realiseerde ik me dat: Integratie/samenvoeging altijd is wat robots laat werken. En het is cruciaal, ongeacht waar we staan met fundamentele doorbraken. Het is de integratie van de techstack. "Je plaatst gewoon agenten op het robotlichaam". Ja. Maar wat betekent dat? Hoe vertaal je menselijke taal naar robotbeweging? Hoe zorg je voor veiligheids- en privacystandaarden? Hoe realiseer je zelfopladen? Het is ook de integratie van belanghebbenden. OEM's en dataverzamelteams willen allemaal data verkopen. Grote bedrijven willen allemaal een plek in het fundamentele model. ACG IP lijkt irrelevant, maar blijkt de trigger te zijn om robots van nerdy dingen naar mainstream consumentenproducten te brengen - al deze factoren moeten worden samengevoegd. VC's onderzoeken meestal de capaciteit van een oprichter om "middelen te mobiliseren" - wat is jouw beste strategie gegeven de beperkte kaarten die je in handen hebt? In dit opzicht is iedereen bij OpenMind in oprichtersmodus. (Update: Nieuwe OpenMind Van! Alleen-robots zijn welkom XD)