谷歌教機器人如何通過環境交互識別物體
幾個月前,總部位于舊金山的初創公司OpenAI展示了一種名為密集對象網(DenseObjectNets,簡稱DON)的計算機視覺系統,該系統允許機器人檢查、視覺理解和操縱他們從未見過的對象。谷歌的研究人員解釋說,這是基于對自我監督的認知發展研究。
人們通過與環境的互動來獲取關于世界的知識,隨著時間的推移,人們從他們所采取的行動的結果中學習。即使是抓住一個物體也能提供很多關于它的信息,例如,它必須在抓住之前的瞬間觸手可及。
Jang和Devin寫道,在機器人領域,這種學習方式得到了積極的研究,因為它使機器人系統能夠在不需要大量訓練數據或人工監督的情況下學習。通過這種形式的自我監督,機器人等可以通過場景中的視覺變化來識別物體。
該團隊與公司合作,庫卡機器人,教授了一種可以無意識地抓住物體的機械臂,并在訓練過程中學習各種物體的表現形式。這些表現最終導致研究者有意識地抓住研究人員選擇的工具。
谷歌機器人
該團隊利用強化學習一種人工智能訓練技術,該技術使用系統驅動實現特定目標,以手臂抓住目標,用相機檢查目標,并回答基本的目標識別問題(這些目標是否匹配)他們實現了一種感知系統,通過分析一系列的三幅圖像,KUKA機器人維修,即抓取前的圖像、抓取后的圖像和被抓取對象的孤立視圖,提取出關于物體的有意義的信息。
在測試中,KUKA機器人維修,Grasp2Vec和研究人員的新策略取得了80%的成功率,甚至在多個對象匹配目標和由多個對象組成的情況下也有效。
他們寫道,我們展示了機器人抓取技能如何生成用于學習以對象為中心的表示的數據。然后,我們可以使用表示學習來引導更復雜的技能,如實例抓取,同時保留我們的自主抓取系統的自監督學習特性。展望未來,我們不僅為機器學習能夠通過更好的感知和控制給機器人帶來什么而感到興奮,也為機器人能夠在新的自我監督范式下給機器學習帶來什么而興奮。