[Youtube]QZ1DaQgg3lE[/Youtube]
說起機器人爬樓梯,不少人可能會想起波士頓動力那隻黃色的 SpotMini 機器人。
如果你覺得 SpotMini 能透過視覺分析路況已經很棒,那 MIT 的 Cheetah 3 肯定讓你更驚豔,因為它不僅可爬樓梯可跳躍,且一切都不依賴視覺完成。
要是它踩到一些鏡頭看不到的東西,那該怎麼辦?我們不想過於依賴視覺。
一位參與 Cheetah 3 項目的工程師 Sangbae Kim 說。不靠視覺或任何感測器,機器人又是如何了解路況? 就和漆黑環境行進的人類一樣,Cheetah 靠的也是「摸黑前行」(blind locomotion)。具體來說,Cheetah 主要依賴兩套新演算法:1. 接觸感應演算法;2. 模型預測控制演算法。
簡單來說,接觸感應演算法可幫 Cheetah 判斷某隻機械腿接觸到的平面是否可「踏下去」,以及下一步又怎樣反應。 ▲「摸黑」爬樓梯。
碰了一下後,演算法得快速判斷機器人腳下是脆弱的樹枝,還是踏實的路面,它能否踏下去?如果不可踏,演算法會結合回饋資料決定,接下來機械腿是趕緊抬起來,還是搖擺以保持整體平衡。
至於模型預測控制演算法,主要幫助機器人判斷,每踏出一步,到底需要用多少力,才能幫助機器人人保持平衡。 除了「踏好每一步」,演算法另一個工作在於幫助機器人遇到意外阻力時,要怎樣恢復平衡。
譬如說,有人在旁邊踢了機器人一腳。演算法就會想,「我剛在左邊遭遇一次意外速度,我要怎麼控制每隻腳的用力狀態,才能保持平衡?如果我在相反方向施 100 牛頓的力,半秒後會發生什麼事?」
Kim 解釋。這個演算法可幫助機器人對付研究人員突然拉扯和推力。 ▲「推什麼!」
視覺判斷可能會面對干擾因素、不準確或情況不適用等問題。所以說,如果你的機器人過於依賴視覺,它對空間的判斷必須非常準確,這會使它反應變很慢。
因此,我們希望它可更依賴觸覺資訊,這樣一來,快速行動時仍可應付意外障礙物。
Kim 補充。此外,這個功能也是出於對 Cheetah 作用定位的考慮。
和旨在進入辦公室和家庭的 SpotMini 不同,Cheetah 的使命在於去人類不能到的地方,深入譬如坍塌大樓的廢墟、受核輻射影響地區等地方,進行救援等工作。這也意味它得面對更複雜的路況、光線更暗的環境。
不過,Kim 表示,他們還是會為 Cheetah 安裝視覺系統,但「不想將視覺當成控制第一位」。
除了「摸黑」系統,Cheetah 3 和上一代相比,靈活度也提升不少。 ▲ 可逆膝關節系統,真‧機器人舞。 ▲ 靈活擺動。 ▲ 弓背彈跳,後面的研究人員也太高興了吧。
會開門的黃色 SpotMini 和 Cheetah 3,你比較喜歡哪個呢? |