Trend-Themen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
In den letzten Tagen habe ich das Gefühl, dass die Liquidität auf einem hohen Niveau viel schlechter ist als zuvor. Egal ob im 2. Segment oder im Binnenmarkt, es fühlt sich viel schwieriger an...
Aber der Preis von Codec bleibt stabil bei 30M. Ich habe noch einen Teil meiner Position, und ich fühle mich damit ziemlich sicher, hauptsächlich weil der Bereich der Roboter in Web2 in letzter Zeit wirklich heiß ist. Unten sind einige aktuelle Informationen, die alle ausdrücken, dass AI das nächste große Ding ist, nämlich Robot Meta.
• Kürzlich hat ein Kernforschungswissenschaftler von Hugging Face, Remi Cadene, Gespräche über eine Seed-Runde von etwa 40 Millionen Dollar für sein Robotik-Startup "Uma" in Paris geführt.
• Solche robotikfokussierten Unternehmen sind bei Investoren sehr gefragt. Der globale Finanzierungsbetrag im Robotikbereich hat 2025 bereits 16 Milliarden Dollar überschritten und nähert sich damit dem Gesamtbetrag von 17,2 Milliarden Dollar des letzten Jahres.
Ich bin immer noch optimistisch bezüglich Codec, schließlich ist der Entwickler von Codec ein wichtiger Open-Source-Beitragender bei VLAs und hat ein gutes Verständnis für den Robotikbereich in Web3.
In letzter Zeit bin ich mit familiären Angelegenheiten beschäftigt, aber ich arbeite weiterhin jeden Tag daran, ein wenig Vermögen zu verdienen, und es geht weiterhin Schritt für Schritt in Richtung ATH. Ich habe zu wenig WLFI, aber ich bin dieses Mal nicht wirklich besorgt. Ich bin zufrieden, wenn ich jeden Tag ein bisschen verdienen kann.
Übrigens habe ich schnell eine Website zur täglichen Vermögensstatistik erstellt, die ich persönlich für sehr nützlich halte. Der Github-Link ist in den Kommentaren, einfach herunterladen, die index-Datei auf dem Computer öffnen und die Website kann verwendet werden.



22. Aug. 2025
VLAs are still very new and a lot of people find it difficult to understand the difference between VLAs and LLMs.
Here is a deep dive into how these AI systems differ in reasoning, sensing, and action. Part 1.
Let's breakdown the key distinctions and how AI agents wrapped around an LLM differ from operator agents that use VLA models:
1. Sense: How they perceive the world
Agent (LLM): Processes text or structured data e.g JSON, APIs, and sometimes images. It’s like a brain working with clean, abstracted inputs. Think reading a manual or parsing a spreadsheet. Great for structured environments but limited by what’s fed to it.
Operator (VLA): Sees raw, real-time pixels from cameras, plus sensor data (e.g., touch, position) and proprioception (self-awareness of movement). It’s like navigating the world with eyes and senses, thriving in dynamic, messy settings like UIs or physical spaces.
2. Act: How they interact
Agent: Acts by calling functions, tools, or APIs. Imagine it as a manager sending precise instructions like “book a flight via Expedia API.” It’s deliberate but relies on pre-built tools and clear interfaces.
Operator: Executes continuous, low-level actions, like moving a mouse cursor, typing, or controlling robot joints. It’s like a skilled worker directly manipulating the environment, ideal for tasks requiring real-time precision.
3. Control: How they make decisions
Agent: Follows a slow, reflective loop: plan, call a tool, evaluate the result, repeat. It’s token-bound (limited by text processing) and network-bound (waiting for API responses). This makes it methodical but sluggish for real-time tasks.
Operator: Operates, making stepwise decisions in a tight feedback loop. Think of it like a gamer reacting instantly to what’s on screen. This speed enables fluid interaction but demands robust real-time processing.
4. Data to Learn: What fuels their training
Agent: Trained on vast text corpora, instructions, documentation, or RAG (Retrieval-Augmented Generation) datasets. It learns from books, code, or FAQs, excelling at reasoning over structured knowledge.
Operator: Learns from demonstrations (e.g., videos of humans performing tasks), teleoperation logs, or reward signals. It’s like learning by watching and practicing, perfect for tasks where explicit instructions are scarce.
5. Failure Modes: Where they break
Agent: Prone to hallucination (making up answers) or brittle long-horizon plans that fall apart if one step fails. It’s like a strategist who overthinks or misreads the situation.
Operator: Faces covariate shift (when training data doesn’t match real-world conditions) or compounding errors in control (small mistakes snowball). It’s like a driver losing control on an unfamiliar road.
6. Infra: The tech behind them
Agent: Relies on a prompt/router to decide which tools to call, a tool registry for available functions, and memory/RAG for context. It’s a modular setup, like a command center orchestrating tasks.
Operator: Needs video ingestion pipelines, an action server for real-time control, a safety shield to prevent harmful actions, and a replay buffer to store experiences. It’s a high-performance system built for dynamic environments.
7. Where Each Shines: Their sweet spots
Agent: Dominates in workflows with clean APIs (e.g., automating business processes), reasoning over documents (e.g., summarizing reports), or code generation. It’s your go-to for structured, high-level tasks.
Operator: Excels in messy, API-less environments like navigating clunky UIs, controlling robots, or tackling game-like tasks. If it involves real-time interaction with unpredictable systems, VLA is king.
8. Mental Model: Planner + Doer
Think of the LLM Agent as the planner: it breaks complex tasks into clear, logical goals.
The VLA Operator is the doer, executing those goals by directly interacting with pixels or physical systems. A checker (another system or agent) monitors outcomes to ensure success.
$CODEC

42,38K
Top
Ranking
Favoriten