Z radością dzielimy się informacją, że zebraliśmy 7,3 miliona dolarów w rundzie seed! "Jak będzie wyglądać inżynieria LLM za kilka lat?" Viraj i ja zaczęliśmy budować TensorZero w zeszłym roku, zadając sobie to pytanie. Dziś budujemy stos open-source do aplikacji LLM o standardzie przemysłowym. Zespoły, od nowatorskich startupów AI po firmy publiczne (a nawet jeden z największych banków europejskich), przyjęły TensorZero, aby zasilać aplikacje LLM nowej generacji. Naszą wizją jest zautomatyzowanie dużej części inżynierii LLM. Kładziemy podwaliny pod to z open-source TensorZero. Przede wszystkim mamy ogromne szczęście, że dołączyli do nas nasi wyjątkowi członkowie zespołu: Aaron (konserwator kompilatora Rust, Svix, AWS), Andrew (postdoc na Columbia, doktorat na Oxfordzie) i Alan (doktorat na CMU, wiceprezydent w JPM AI Research), a wkrótce także Shuyang (pracownik SWE w infrastrukturze LLM w Google, Palantir) i Cole (Cognition/Windsurf, Stanford). Jesteśmy również wdzięczni dziesiątkom deweloperów, którzy wnieśli wkład w open-source (a wkrótce przekroczymy 10 tysięcy gwiazdek na GitHubie!). Przeczytaj więcej o naszej historii i wizji w poniższym wpisie na blogu:
TensorZero
TensorZero19 sie, 04:14
Ogłaszamy naszą rundę seedową na kwotę 7,3 miliona dolarów! TensorZero umożliwia tworzenie koła zamachowego danych i uczenia dla optymalizacji aplikacji LLM: pętla zwrotna, która przekształca metryki produkcyjne i ludzką opinię w mądrzejsze, szybsze i tańsze modele oraz agentów. Dziś oferujemy otwartą platformę do budowania aplikacji LLM klasy przemysłowej, która łączy bramkę LLM, obserwowalność, optymalizację, ocenę i eksperymentowanie. Możesz wziąć to, czego potrzebujesz, przyjąć stopniowo i uzupełnić innymi narzędziami. Z biegiem czasu te komponenty umożliwiają Ci stworzenie zasadniczej pętli zwrotnej dla Twojej aplikacji LLM. Zbierane dane są powiązane z Twoimi KPI, portami różnych dostawców modeli i kumulują się w przewagę konkurencyjną dla Twojego biznesu. Naszą wizją jest zautomatyzowanie dużej części inżynierii LLM. Kładziemy fundamenty pod to z otwartym źródłem TensorZero. Na przykład, dzięki naszemu modelowi danych i end-to-end workflow, będziemy w stanie proaktywnie sugerować nowe warianty (np. nowy model dostosowany), testować je na danych historycznych (np. wykorzystując różnorodne techniki z uczenia przez wzmocnienie), umożliwiać stopniowe, na żywo testy A/B i powtarzać ten proces. Dzięki takiemu narzędziu inżynierowie mogą skupić się na wyższych poziomach workflow — decydować, jakie dane wchodzą i wychodzą z tych modeli, jak mierzyć sukces, jakie zachowania nagradzać, a jakie zniechęcać, i tak dalej — a szczegóły implementacji na niskim poziomie pozostawić zautomatyzowanemu systemowi. To jest przyszłość, którą widzimy dla inżynierii LLM jako dyscypliny. Ostatnio TensorZero osiągnęło #1 w trendach repozytoriów tygodnia na całym świecie na GitHubie (i zaraz przekroczymy 10 tysięcy gwiazdek). Mamy szczęście, że otrzymaliśmy wkład od dziesiątek deweloperów z całego świata, a ekscytujące jest to, że TensorZero już napędza nowoczesne produkty LLM w wiodących startupach AI i dużych organizacjach, w tym w jednym z największych banków w Europie. Cieszymy się, że możemy ogłosić, że zebraliśmy 7,3 miliona dolarów, aby przyspieszyć wysiłki TensorZero w budowaniu infrastruktury open-source klasy światowej dla inżynierów LLM (rekrutujemy!). Rundę prowadzi @FirstMarkCap, z udziałem @BessemerVP, @bedrock, @DRWTrading, @coalitionvc i dziesiątek strategicznych aniołów.
9,83K