深圳2026年1月7日 /美通社/ -- 2026年國際消費類電子產品展覽會(CES)近日在拉斯維加斯舉行。作為全球消費電子風向標,CES正從傳統消費電子展示平臺加速演進為具身智能前沿技術驗證與產業釋放的核心舞臺。展會期間,戴盟機器人發布全球首款力/觸覺反饋遙操作數據采集系統DM-EXton2,直擊"高質量訓練數據"這一智能躍遷瓶頸,為機器人走向通用化與自主化提供底層能力支撐。
遙操作數據采集系統作為連接人類與機器人智能的橋梁,可通過遠程操控并同步記錄人類操作中的動作、力控與觸覺等多維數據,為機器人自主學習提供高質量"教材"。在AI迅猛發展的背景下,機器人進化面臨的核心瓶頸已從算力與算法轉向物理世界數據的嚴重缺失——互聯網雖有海量圖文,卻難覓真實交互中的"手感"與"力道"。推動機器人邁向通用智能的關鍵,正從"讀萬卷書"轉向"行萬里路",而具備力/觸覺反饋的遙操作數據采集,正是將人類操作經驗轉化為機器可學習、可泛化"物理直覺"的核心路徑。
此次戴盟機器人發布的 DM-EXton2 作為全球首款力/觸覺反饋遙操作數據采集系統,在延續上一代產品低延遲、高精度與異構兼容性等優勢的基礎上,進一步對整體結構與人機工學進行了優化,操作員佩戴舒適度與操控便捷性均隨之提升。
值得注意的是,DM-EXton2 在多形態末端適配方面實現了更高的靈活性:通過卡扣式快換設計,無需工具即可在數秒內完成手柄模式與手套模式的切換,能夠適配當前人形機器人常見的夾爪、靈巧手等多種末端執行器,實現"一機多用",降低不同任務之間的切換成本與部署門檻。
而本次產品的最大亮點——力/觸覺反饋,則讓機器人在遙操作過程中也擁有"手感"。該系統可將接觸力、擠壓等信息實時反饋給操作者,使其在進行易碎物夾取、精密插拔、柔性抓取等精細任務時,更容易把握力度邊界,從而提升操作成功率與高質量數據采集效率。即便在機器人或遙操員視覺被遮擋、視線受限的情況下,操作者也能借助力反饋對物體的軟硬、接觸狀態進行判斷,輔助完成更準確、更穩定的抓取與放置。
此次戴盟機器人還攜多款基于視觸覺感知技術的硬件產品亮相CES。展會現場吸引了來自全球不同區域的機器人本體廠商、行業專家、媒體等廣泛關注,體驗區試用不斷,現場觀眾就系統的適配能力、數據采集方案與行業落地場景與參展團隊進行了深入交流。
這一戰略落地,依托于戴盟深厚的技術積淀與強大的團隊實力。戴盟機器人孵化于香港科技大學,由香港科技大學機器人研究院創始院長、國際權威王煜教授及段江嘩博士共同創立。團隊成員來自全球知名院校,擁有國際一流的科研成果與技術積累,及全球推廣到年營收數十億的量產經驗。
戴盟機器人相關負責人表示,戴盟機器人致力于構建面向具身智能的靈巧操作基礎設施,通過"3D"戰略——即 Device(視觸覺硬件設備)、Data(多模態交互數據)、 Deployment(場景化部署)——打造從感知到執行的完整閉環,以 DaaS(Data as a Service)和 VTLA(Vision-Tactile-Language-Action)模型驅動靈巧技能的規?;桓叮寵C器人真正具備可泛化的物理世界操作能力。