熱門話題
#
Bonk 生態迷因幣展現強韌勢頭
#
有消息稱 Pump.fun 計劃 40 億估值發幣,引發市場猜測
#
Solana 新代幣發射平臺 Boop.Fun 風頭正勁
什麼是$CODEC運營商?
這就是視覺-語言-行動模型最終使人工智慧對實際工作有用的地方。
操作員是由 VLA 模型提供支援的自主軟體代理,透過連續的感知-推理-行動循環執行任務。
法學碩士可以出色地思考和說話,但他們無法指向、點擊或抓住任何東西。它們是純粹的推理引擎,對物理世界沒有基礎。
VLA 將視覺感知、語言理解和結構化動作輸出結合在一次前向傳遞中。雖然 LLM 描述了應該發生的事情,但 VLA 模型實際上透過發出座標、控制訊號和可執行命令來實現它。
運運算元工作流程為:
- 感知:擷取螢幕截圖、相機來源或感測器資料。
- 推理:使用 VLA 模型處理觀察結果以及自然語言指令。
- 動作:透過 UI 互動或硬體控制執行決策,所有這些都在一個連續的循環中完成。
範例:LLM 與由 VLA 模型提供支援的運算子
排定會議
LLM: 提供日曆管理的詳細解釋,概述安排會議的步驟。
具有 VLA 型號的運營商:
- 擷取使用者的桌面。
- 識別日曆應用程式(例如 Outlook、Google 日曆)。
- 導覽至星期四,在下午 2 點建立會議,並新增出席者。
- 自動適應使用者介面變更。
機器人技術:對物體進行分類
LLM: 生成對對象進行排序的精確書面指令,例如識別和組織紅色組件。
具有 VLA 型號的運營商:
- 實時觀察工作空間。
- 識別混合物件中的紅色元件。
- 規劃機械手臂的無碰撞軌跡。
- 執行拾取和放置操作,動態調整到新的位置和方向。
VLA 模型最終彌合了能夠推理世界的人工智慧和能夠實際改變世界的人工智慧之間的差距。他們將自動化從脆弱的規則遵循轉變為適應性問題解決的能力——聰明的工人。
「傳統腳本在環境變化時會中斷,但操作員使用視覺理解來即時適應,處理異常而不是崩潰。」

1.58K
熱門
排行
收藏