目前機器人識別三維空間里的物體都是通過多個角度觀察來收集信息,從而做出判斷,故而常出現反應速度慢和對存儲和計算資源的需求量大等問題。對此,研究人員開發出一套新的計算機視覺算法,即使在部分物體被遮擋的條件下,它也能夠使機器人直接識別出物體,無需多角度收集信息。
類似傳統的用于訓練機器人的計算機視覺算法,該算法也需要通過四千個分布在十個不同類別的物體數據的訓練,以此來了解這個世界。
當我們需要機器人識別物體時,傳統的算法只是用來訓練如何識別物體的特征和物體疊加的總體特征,而此處新的算法會計算對象的相似度和物體之間不同之處這兩項因素。
具體來看,就是當它需要識別鍋和罐頭的時候,算法不會花時間檢測中空部分,而是尋找其他因素;而當算法確定物體是個鍋的時候,它會將重點放在鍋的深度或手柄的位置,以確定鍋的類型。
對此,Ben Burchfiel博士說:“這樣可以釋放儲存和計算資源,讓學習變得更容易。”
不過在識別任務中,很多時候物體都是被遮掩的。雖然傳統的深度學習算法能夠解析復雜的輸入數據,并輸出一個簡單的預測結果,但是當對象模糊時,傳統的算法往往無法給出準確的結果,正確率極低。而這里的新算法可以通過關聯的形狀特征來構建整個對象。
根據訓練結果,嵌入該算法的機器人大約只需花一秒來預測結果,正確率目前可達到75%,而且它無需從不同角度獲取物體信息,就可以推斷出物體不可見的部分。
Burchfiel表示,目前需要做的就是用大量的數據對這一算法進行訓練,以達到更高的準確度和實現對算法的優化。
2025-04-03 09:11
2025-04-03 08:56
2025-04-03 08:51
2025-04-03 08:47
2025-04-02 09:01
2025-03-31 15:35
2025-03-31 15:33
2025-03-26 11:46
2025-03-26 11:45
2025-03-25 08:58