許多研討人工智慧(AI)的公司都在透過深度學習來教會機器人辨識圖像,卡內基美隆大學(CMU)的研討團隊則選了別的一種辦法,他們試著經驗機器人透過觸摸來認知世界,就像嬰兒一樣。
TechCrunch 報導,在每天 8 小時實驗時期,這個名為「Baxter」的機器人只需一個任務要進行──從桌上隨機抓取物品,它的動作緩慢而笨拙,即使如此,這一個月時期也現已進行了 5 萬次的抓取動作,Baxter 正在透過觸覺反應和檢驗過錯來學習。
研討團隊在宣布的論文中,說明了他們怎樣透過讓機器人反覆觸摸物品,來進步對物品的認知,「以嬰兒來說,他們透過用手推、戳物品、把東西放進嘴裡或扔出去來學會認知表徵,我們也希望到達這么的方針,所以在 Baxter 的程式平臺中建構了類似的方式,讓它們在桌面環境上戳、抓取并查詢物品。」
為了闡明學習觸摸的重要性,研討室助理 Dhiraj Gandhi 用 1970 時代中期英國的一項實驗做為比方,其時研討人員對兩隻貓進行認知實驗,其間一隻就像平常一樣日子、與世界觸摸,另一隻貓則只可以觀看,不被容許觸摸物品,畢竟只需被容許與環境互動的學會爬行,只能查詢的不能做出一樣做法。
而在實驗中,Baxter 逐漸地展現出對物品認知的進步,當機器人認出了解的物品時,平板閃現螢幕上會暴露「微笑」,并且抓取物品放入適宜的籃子;如果對物品不了解,螢幕上則會暴露「利誘」的表情──研討人員并不擔憂,他們信任沒有什麼是別的 5 萬次抓取練習學習不了的。
這項研討改變了傳統的機器視覺學習方式,不同于以往系統透過現已輸入的標籤去區分、尋覓物品,Baxter 是透過觸摸來自我學習認知,Gandhi 說明,以前圖像和標籤之間并沒有互動,在視覺系統中只需被逼數據可以收集。
「我們想要的是與物品時可以取得活動的數據,并透過這些學習對別的視覺任務有用的功用。」
Baxter 的系統中有著類似 Kinect 的 3D 鏡頭,將收集到的視覺與觸覺音訊發送到深層的神經網路,并在 ImageNet 中與圖像穿插參看。團隊在其間意外發現,收集的觸摸數據讓 Baxter 的辨識精準度,較別的只運用圖像辨識的機器人高出 10%,團隊認為這十分鼓舞人心。
儘管如今研討還處于前期時期,但團隊十分看好將來的展開,Gandhi 標明,他認為聯系視覺與觸摸學習的機器人可以用于揀選分類,就像 ZenRobotics 開發的類型,將來能為廢物進行分類回收,這在實際中是一個十分大的應戰,「當然,我們如今還在嬰兒學步呢。」