利用人工智能配合機械臂技術帶來更廣泛的生產自動化應用是近年的趨勢,不過訓練相關模型需要大量數據支撐。Google 最近就開發一個新的架構,希望減少訓練所需的數據規模,同時保持效率。
Google 最新公佈的 Transporter Network 人工智能模型架構為機械臂訓練而設,可以透過分析視覺元素,進行抓取物件的動作。研究人員表示,這個模型在不同的物件抓取任務,包括疊起積木、組合模型、使用繩子以及堆疊小型物件等。物件抓取向來是人工智能機械臂的一個能力標杆,因為這牽涉到複雜的視覺數據分析,以及機械動作控制。
研究人員表示,Transporter Networks 不需要視線輸入任何有關目標物件的 3D 模型、姿勢或類別數據,而只需要依賴來自深度相機數據中包含的資訊就可。這個模型還可以擴充到新的物件和設定,在某些任務之中,更可以從單次示範中學習。他們指,要進行特定任務,這個模型框架只需要 1-1,000 次示範就可以做到,而在 11,633 個抓取任務之中,全部都只由 13 個真人操作員監督,其漱口水樽裝嵌成功率高達 98.9%,相當理想。
來源:VentureBeat