MIT最新AI研究,讓機器人利用觸覺感知物體
麻省理工學院計算機科學及人工智能實驗室(CSAIL)的研究人員表示,在不久的將來,機器人將能夠通過觸覺來感知物體。一篇最新的相關(guān)論文將于下周在加利福尼亞長灘市的計算機視覺與模式識別會議上公開,這篇論文描述了一種人工智能系統(tǒng),它可以通過觸覺信號生成觸摸物的視覺形象,還能根據(jù)視覺數(shù)據(jù)來預測物體的觸感。
“通過觀察物體的表面,我們的模型可以預測某個平面或棱角的觸感。通過觸摸物體,我們的人工智能模型可以根據(jù)觸感來構(gòu)建感知到的環(huán)境。將這兩種感知數(shù)據(jù)相結(jié)合,機器人的性能就會得到優(yōu)化,它在搬運或抓取某個物體時所需的數(shù)據(jù)就更少,”CSAIL博士生Yunzhu Li說道,他與他的導師Russ Tedrake、Antonio Torralba以及另一位博士后Jun-Yan Zhu一起撰寫了本篇論文。
這支團隊的系統(tǒng)采用了生成式對抗神經(jīng)網(wǎng)絡(luò)(GAN),這種神經(jīng)網(wǎng)絡(luò)包含了生成模型和判別模型,前者負責生成樣本,后者負責辨別生成樣本和現(xiàn)實樣本的不同。該系統(tǒng)能將觸覺數(shù)據(jù)產(chǎn)生的圖像拼接起來。訓練時它采用了VisGel的數(shù)據(jù),該數(shù)據(jù)庫擁有300萬組視覺和觸覺的配套數(shù)據(jù),其中包含1.2萬個視頻片段,對象多達200種(包括工具、織物和家具產(chǎn)品等)。它會預測出形狀和接觸點的材料,然后與參考圖片進行對比。
例如你給出一只鞋子上某個點的觸覺數(shù)據(jù),這個模型就能確定出這個接觸點到底在什么地方。
這些參考圖片能為目標物體或環(huán)境的細節(jié)進行編碼,讓機器學習模型不斷自我完善。
這些研究人員指出,目前的數(shù)據(jù)集還非常有限,對于現(xiàn)有的系統(tǒng)而言,物體的顏色、柔軟度等細節(jié)還很難預測。但很顯然他們的研究會為更多的人機一體化打下基礎(chǔ),尤其是針對光線昏暗甚至黑暗密閉空間中的任務(wù)。

請輸入評論內(nèi)容...
請輸入評論/評論長度6~500個字
最新活動更多
-
7月8日立即報名>> 【在線會議】英飛凌新一代智能照明方案賦能綠色建筑與工業(yè)互聯(lián)
-
7月22-29日立即報名>> 【線下論壇】第三屆安富利汽車生態(tài)圈峰會
-
7.30-8.1火熱報名中>> 全數(shù)會2025(第六屆)機器人及智能工廠展
-
7月31日免費預約>> OFweek 2025具身智能機器人產(chǎn)業(yè)技術(shù)創(chuàng)新應(yīng)用論壇
-
免費參會立即報名>> 7月30日- 8月1日 2025全數(shù)會工業(yè)芯片與傳感儀表展
-
即日-2025.8.1立即下載>> 《2024智能制造產(chǎn)業(yè)高端化、智能化、綠色化發(fā)展藍皮書》
推薦專題