Chłopaki, przepraszam, że zespół OS robotyki @openmind_agi nie osiąga żadnych "przełomów" w tych dniach. Nie trenujemy własnego modelu. Sprzęt ma wbudowaną podstawową lokomocję. Modele AI już zapewniają interakcję w naturalnym języku. Ale po tylu "przełomach", dlaczego roboty głównie tańczą boks, a nie pracują jeszcze? Czy naprawdę potrzebujemy tylu "przełomów", aby aplikacje działały? OpenMind buduje Androida dla robotyki. Nie osiągamy "przełomów", ale sprawiamy, że przełomy działają. Po rozmowach z różnymi interesariuszami w zakresie OS, zdałem sobie sprawę, że: Integracja/konsolidacja zawsze napędza roboty do działania. I to jest kluczowe, niezależnie od tego, na jakim etapie jesteśmy w kwestii przełomów podstawowych. To integracja stosu technologicznego. "Po prostu umieszczasz agentów na ciele robota". Tak. Ale co to oznacza? Jak przetłumaczyć ludzki język na ruch robota? Jak zapewnić standardy bezpieczeństwa i prywatności? Jak zrealizować samodzielne ładowanie? To także integracja interesariuszy. Producenci oryginalnego sprzętu i zespoły zbierające dane chcą sprzedawać dane. Duże firmy chcą mieć swoje miejsce w modelu podstawowym. ACG IP wydaje się nieistotne, ale okazuje się być czynnikiem wyzwalającym, który przekształca roboty z geekowskich zabawek w produkty konsumenckie - wszystkie te czynniki muszą być skonsolidowane. VC zazwyczaj oceniają zdolność założyciela do "napędzania zasobów" - jaki jest twój najlepszy ruch przy ograniczonych kartach w ręku? W tym sensie każdy w OpenMind jest w trybie założyciela. (Aktualizacja: Nowy Van OpenMind! Tylko roboty są mile widziane XD)