close
人工智能企業趨勢

不只是用看的 美大學研究團隊教機器人用觸覺認知世界

許多研究人工智能(AI)的企業都在透過深度學習來教會機器人辨識圖像,卡尼基美隆大學(CMU)的研究團隊則選了另外一種方式,他們試著教導機器人透過觸摸來認知世界,就像嬰兒一樣。

 

模仿人類嬰兒認知方法 機器人靠觸摸感知物品

據報導,在每天 8 小時實驗期間,這個名為「Baxter」的機器人只有一個任務要進行 — 從桌上隨機抓取物品,它的動作緩慢而笨拙,即使如此,這一個月期間也已經進行了 5 萬次的抓取動作,Baxter 正在透過觸覺反饋和嘗試錯誤來學習。

研究團隊在發表的論文中,解釋了他們如何透過讓機器人反覆接觸物品,來提升對物品的認知,「以嬰兒來說,他們透過用手推、戳物品、把東西放進嘴裡或扔出去來學會認知表徵,我們也希望達到這樣的目標,所以在 Baxter 的程式平台中建構了類似的模式,讓它們在桌面環境上戳、抓取並觀察物品。」

為了說明學習觸摸的重要性,研究室助理 Dhiraj Gandhi 用 1970 年代中期英國的一項實驗做為例子,當時研究人員對兩隻貓進行認知實驗,其中一隻就像平常一樣生活、與世界接觸,另一隻貓則只能夠觀看,不被允許接觸物品,最終只有被允許與環境互動的學會爬行,只能觀察的不能做出同樣舉動。

而在實驗中,Baxter 逐漸地展現出對物品認知的提升,當機器人認出熟悉的物品時,平板顯示螢幕上會露出「微笑」,並且抓取物品放入適合的籃子;如果對物品不熟悉,螢幕上則會露出「困惑」的表情──研究人員並不擔心,他們相信沒有什麼是另外 5 萬次抓取練習學習不了的。

 

改變傳統機器視覺學習模式

這項研究改變了傳統的機器視覺學習模式,不同於以往系統透過已經輸入的標籤去判斷、尋找物品,Baxter 是透過觸摸來自我學習認知,Gandhi 解釋,過去圖像和標籤之間並沒有互動,在視覺系統中只有被動數據可以收集。

「我們想要的是與物品時可以獲得活動的數據,並透過這些學習對其他視覺任務有用的功能。」

Baxter 的系統中有著類似 Kinect 的 3D 鏡頭,將收集到的視覺與觸覺訊息發送到深層的神經網路,並在 ImageNet 中與圖像交叉參考。團隊在其中意外發現,收集的觸摸數據讓 Baxter 的辨識精準度,較其他只使用圖像辨識的機器人高出 10%,團隊認為這非常鼓舞人心。

儘管目前研究還處於初期階段,但團隊十分看好未來的發展,Gandhi 表示,他認為結合視覺與觸摸學習的機器人可以用於揀選分類,就像 ZenRobotics 開發的類型,未來能為垃圾進行分類回收,這在現實中是一個非常大的挑戰,「當然,我們目前還在嬰兒學步呢。」

(本文由 TechNews 授權轉載)

 

Tags :aimachine learning
Technews

The authorTechnews

科技新報 (TechNews)於 2013 年下半年成立,是一群對資訊科技、能源、半導體、行動運算、網際網路、醫療、生物科技具有高度熱忱與興趣的產業與新媒體人士所共同組成的時代新媒體,以產出有觀點與特色的原創文章為主要任務。