英偉達研究院在利用深度學習訓練各種任務模型方面取得了長足進展。最近,該公司讓BERT實現了有史以來最快的訓練時間并還對有史以來最大的基于轉型的模型進行了訓練。
然而正如預期的那樣,基于深度學習的算法首先需要一個龐大的數據集,這在許多情況下是一種奢侈品。除了繼續使用深度學習進行研究外,該公司還將精力集中到了另一個方向。據悉,英偉達在西雅圖機器人實驗室開發了一種新的算法--6-DoFGraspNet,其能讓機器人抓取任意物體。
6-DoFGraspNet的工作如下:機械手觀察物體并決定在6D空間(空間中的x、y、z坐標平面和旋轉三維空間)中移動到哪里。該算法的設計方式是生成一組可能的握持器并根據需求進行移動。然后,整個握持器通過一個“握持評估器”運行,該評估器會為每個可能的握持分配一個分數。最后,握持評估器通過局部變換調整握持變量進而提高最佳握持的成功率。整個過程如下圖所示:
有趣的是,研究人員并沒有選擇基于深度學習的方法,反倒是選擇了“綜合訓練數據”。英偉達在這當中使用的NvidiaFleX評估法是一種基于粒子的模擬技術,它可以實時生成視覺效果。下面這張動圖展示了握持的進化過程:
英偉達的研究人員表示,6-DoFGraspNet最大的優勢之一在于它可以用來抓取任意物體;其次是它的模塊化,這使得它可以用于各種計算機視覺應用和運動規劃算法;第三,它可以跟一個模型一起使用,該模型可根據各種物體的“點云”來分配形狀,而這將能確保機械臂不會跟任何障礙物相撞。
據悉,英偉達計劃在10月/11月在韓國舉行的2019年計算機視覺國際會議上展示這套6-DoFGraspNet。