時速40公里的無人機,并不稀奇。
但能用這個速度在茂密的森林里穿梭,還是“自己遛自己”的那種,你見過嗎?
如此高超的避障飛行走位,可不是人類用手柄操作出來的,全靠無人機的“自我管理意識”。
就算是遇到運動的障礙物,只要比這個無人機速度慢,它就都可以躲得過去。
這款自主避障無人機,是由蘇黎世大學與英特爾聯合開發(fā)。
具體而言,就是以立體深度攝像頭作為眼睛,讓無人機可以自己看得見障礙物,并規(guī)劃飛行軌跡。
換上不同性能的相機,它還可以自主完成不同的任務。
比如說躲避迎面砸過來的籃球,像這樣:
完成被稱作無人機雜技的高難度飛行軌跡也不在話下。
如此靈活的無人機,是怎么被教出來的?
一對一的無人機避障學習
傳統的無人機自主避障飛行,一般都是信息處理-制作地圖-規(guī)劃路線的處理方式。
但是由于無人機搭載的芯片性能有限,如果信息處理不及時,無人機就可能會撞上障礙物造成事故。
想要提高信息處理速度,不如把三步合并為一步,利用機器學習完成輸入到輸出的映射。
具體來說,就是從傳感器信息輸入直接到飛行軌跡輸出,這種處理方式在速度上要大大優(yōu)于傳統方法。
如上表所示,和傳統的FastPlanner、Reactive路徑規(guī)劃方法相比,這個算法所需的處理時間更短。雖然Reactive的處理速度也很快,但是它在高速飛行中的表現較差。
那么,無人機如何實現從傳感器輸入,直接到飛行軌跡的輸出映射?
這里就用到了卷積網絡來模擬訓練。
模擬中的神經網絡訓練使用了一個“專家控制器”(expert controller),它可以使用3D點云,準確估計出模擬訓練中的環(huán)境狀態(tài)與無人機四旋翼狀態(tài)。
由于模擬訓練沒有時間限制,“專家控制器”可以更充分地自行訓練端到端策略。
控制器還用到了Metropolis-Hastings (M-H) 算法來計算軌跡的分布,獲得多模式導航方案。
在這個過程中,端到端策略訓練如下圖所示:
訓練完成的“專家控制器”,將會去教授現實中無人機上的“學生控制器”(student controller)。
“學生控制器”在跟隨“專家控制器”飛行時,使用的傳感器輸入均做了抽象化處理,以此來模擬現實世界中不精確的環(huán)境數據。
傳感器輸入的現實圖像數據,會被抽象處理成與模擬環(huán)境一致的數據,以此來完成訓練軌跡在現實中的映射。
在雪地、脫軌火車、廢墟、茂密植被和倒塌的建筑物等場景下,無人機已經實現了自主穿越。
針對運動模糊、傳感器噪聲和其他感知偽影等情況,無人機同樣可以輕松處理。
能征服森林的無人機,也有它的“禁區(qū)”
當然了,目前這款無人機的性能還稱不上完美無缺。
模擬系統無法完全照搬到真實世界,現實中總會出現一些模擬不了的意外事件。
比如在低照明及其他影響視覺的環(huán)境條件下,相機感知會受到限制。像是霧霾天氣、有透明或反光表面存在的情況,無人機便無法準確避障飛行。
專家控制器的訓練不包括動態(tài)障礙物躲避,所以高速移動的物體仍然會是無人機的一大威脅因素。
針對性能的優(yōu)化,研究人員指出:
只需要使用事件相機代替?zhèn)鹘y相機,這些視覺方面的受限因素均可以被克服。
能夠更快處理環(huán)境信息的傳感器,將會是未來高速無人機的配置方向。
同時,相關專家也提到,現實世界也將可能成為訓練無人機的場所。
隨著傳感器功能和計算機能力的提升,無人機在更復雜環(huán)境中的飛行速度,很快能超過40公里/小時。
參考鏈接
https://spectrum.ieee.org/racing-drone
https://spectrum.ieee.org/ai-powered-drone-extreme-acrobatics
https://spectrum.ieee.org/event-camera-helps-drone-dodge-thrown-objects