許多研究人工智慧(AI)的企業(yè)都在透過深度學(xué)習(xí)來教會機器人辨識圖像,卡內(nèi)基美隆大學(xué)(CMU)的研究團(tuán)隊則選了另外一種方式,他們試著教導(dǎo)機器人透過觸摸來認(rèn)知世界,就像嬰兒一樣。
TechCrunch 報導(dǎo),在每天 8 小時實驗期間,這個名為“Baxter“的機器人只有一個任務(wù)要進(jìn)行──從桌上隨機抓取物品,它的動作緩慢而笨拙,即使如此,這一個月期間也已經(jīng)進(jìn)行了 5 萬次的抓取動作,Baxter 正在透過觸覺反饋和嘗試錯誤來學(xué)習(xí)。
研究團(tuán)隊在發(fā)表的論文中,解釋了他們?nèi)绾瓮高^讓機器人反覆接觸物品,來提升對物品的認(rèn)知,“以嬰兒來說,他們透過用手推、戳物品、把東西放進(jìn)嘴里或扔出去來學(xué)會認(rèn)知表征,我們也希望達(dá)到這樣的目標(biāo),所以在 Baxter 的程式平臺中建構(gòu)了類似的模式,讓它們在桌面環(huán)境上戳、抓取并觀察物品。“
為了說明學(xué)習(xí)觸摸的重要性,研究室助理 Dhiraj Gandhi 用 1970 年代中期英國的一項實驗做為例子,當(dāng)時研究人員對兩只貓進(jìn)行認(rèn)知實驗,其中一只就像平常一樣生活、與世界接觸,另一只貓則只能夠觀看,不被允許接觸物品,最終只有被允許與環(huán)境互動的學(xué)會爬行,只能觀察的不能做出同樣舉動。
而在實驗中,Baxter 逐漸地展現(xiàn)出對物品認(rèn)知的提升,當(dāng)機器人認(rèn)出熟悉的物品時,平板顯示屏幕上會露出“微笑“,并且抓取物品放入適合的籃子;如果對物品不熟悉,屏幕上則會露出“困惑“的表情──研究人員并不擔(dān)心,他們相信沒有什么是另外 5 萬次抓取練習(xí)學(xué)習(xí)不了的。
這項研究改變了傳統(tǒng)的機器視覺學(xué)習(xí)模式,不同于以往系統(tǒng)透過已經(jīng)輸入的標(biāo)簽去判斷、尋找物品,Baxter 是透過觸摸來自我學(xué)習(xí)認(rèn)知,Gandhi 解釋,過去圖像和標(biāo)簽之間并沒有互動,在視覺系統(tǒng)中只有被動數(shù)據(jù)可以收集。
“我們想要的是與物品時可以獲得活動的數(shù)據(jù),并透過這些學(xué)習(xí)對其他視覺任務(wù)有用的功能。“
Baxter 的系統(tǒng)中有著類似 Kinect 的 3D 鏡頭,將收集到的視覺與觸覺訊息發(fā)送到深層的神經(jīng)網(wǎng)路,并在 ImageNet 中與圖像交叉參考。團(tuán)隊在其中意外發(fā)現(xiàn),收集的觸摸數(shù)據(jù)讓 Baxter 的辨識精準(zhǔn)度,較其他只使用圖像辨識的機器人高出 10%,團(tuán)隊認(rèn)為這非常鼓舞人心。
盡管目前研究還處于初期階段,但團(tuán)隊十分看好未來的發(fā)展,Gandhi 表示,他認(rèn)為結(jié)合視覺與觸摸學(xué)習(xí)的機器人可以用于揀選分類,就像 ZenRobotics 開發(fā)的類型,未來能為垃圾進(jìn)行分類回收,這在現(xiàn)實中是一個非常大的挑戰(zhàn),“當(dāng)然,我們目前還在嬰兒學(xué)步呢。“