MIT 開發全新機械人訓練模型 採用類似 LLM 方式進行訓練

除了 AI 技術之外,機械人技術也是近來越來越受重視的科技,MIT 最近就展示一個嶄新的機械人訓練模型。有別於傳統用於機械人訓練的專門數據集,這個方法採用了類似大型語言模型 (LLMs) 的海量資訊訓練方式,使其更加精準。

研究人員 Lirui Wang 表示,在語言 AI 模型方面,所有數據都只是句子,但在機械人方面,考慮到數據的異質性,若要進行類似的預訓練,就需要不同的架構。研究團隊指出,只讓機械人透過觀察人類執行任務來學習的話,在遇到微小挑戰時可能會失敗,包括各種元素包括光線、不同環境或新障礙物等,都會因為機械人沒有足夠的數據而無法應對。

為此,團隊參考了 GPT-4 等模型的「暴力數據」解決方案,開發名為「異質預訓練轉換器」(HPT) 的新架構,能夠整合來自不同感測器和環境的資訊。他們使用 Transformer 將數據整合成訓練模型,而且規模越大,輸出效果越好。使用者只需輸入機械人設計、配置和想要完成的工作即可。卡內基梅隆大學副教授 David Held 對此研究表示:「我們的夢想是製作一個通用的機械人大腦,讓使用者無需任何訓練就能下載使用。儘管我們才剛起步,但我們會持續努力,希望透過擴展實現機械人政策的突破,就像大型語言模型一樣。」

來源:TechCrunch