讓無人機自主避障教學研究邁向更高處slam導航避障算法

隨著消費級無人機技術的不斷成熟,不斷完善的自動避障系統(tǒng)可以極大的減少因操作失誤而帶來的各項損失,目前避障能力正逐漸成為了無人機自動化或智能化的關鍵點所在。

讓無人機自主避障教學研究邁向更高處slam導航避障算法。根據(jù)無人機避障技術的原理和發(fā)展趨勢,可以將無人機避障技術分為三重階段:即感知障礙物階段、繞過障礙物和場景建模和路徑搜索。

感知障礙階段

"在開闊場地飛行,盡量避開人群,避免因操作失誤而帶來的安全事故”是目前大部分消費級無人機的使用說明上都會出現(xiàn)的一項標注,因此各無人機開發(fā)商為了降低安全事故的發(fā)生幾率,都將避障技術作為了開發(fā)的重點。而如何實現(xiàn)無人機自動避障,首先要實現(xiàn)的是如何精確的測量無人機與障礙物之間的距離,只有先測量出危險范圍內的距離,才可以有時間在撞向障礙物之前停止無人機的前進動作,進而避免事故的發(fā)生。就如人類或其他動物在前進的過程中,只有先看見前方的障礙物,并且會大致估算出自己與障礙物之間的距離,才能決定下一步的行為方向,因此雖然看似測距停止的這種思路很簡單粗暴,但在實際應用中還是有一定的存在意義。

而目前的無人機領域被廣泛應用到的障礙物檢測方法有超聲波測距、紅外或激光測距、雙目視覺、電子地圖等。其中雙目視覺技術更是利用了人眼如何估計視覺的原理,是目前較受無人機開發(fā)商青睞的一種技術。超聲波測距其實是一種比較成熟的測距技術,而成本相對較低,目前被大量的應用于家用的汽車倒車雷達上,但是其測量距離較近,而且對反射面有著一定的要求 ,因此常被用來測量無人機與地面之間的距離,而非與障礙物之間的距離。

紅外或激光測距又稱TOF是利用傳感器發(fā)射定頻率的信號,通過計算反射信號與原信號之間的相位差來確定信號的飛行時間,并最終確定的無人機與障礙物之間的距離,該技術一旦達到高等級 ,還可以獲得障礙物的深度圖。

而雙目視覺技術是運用了人眼計算距離的原理,是機器視覺的一種重要形式,主要基于視察原理并利用成像設備從不同的位置獲取被測物體的兩幅圖像,并通過計算圖像對應點之間的位偏差,來確定物體三維幾何信息的方法。雖然該技術的難度較高.但是已經開始逐漸應用到無人機避障技術中來。

電子地圖則是借助GPS系統(tǒng)、細粒度的數(shù)字高程地圖和城市建筑3D地圖,比較適用于無人機的禁區(qū)功能,不僅可以避免重要建筑物受到撞擊,還可實現(xiàn)多種情況下的避障功能。

在看過基本的障礙物測量原理之后,我們可以繼續(xù)看無人機的避障功能,最簡單的概況就是通過各項障礙物測量技術,來保障無人機與障礙物之間的距離并且根據(jù)距離實行下一步的飛行計劃,然而在遇到障礙物之后就保持距離并進行等待,只能說是無人機避障功能的最初級階段。

讓無人機自主避障教學研究邁向更高處slam導航避障算法

繞過障礙階段

當無人機遇到障礙物之后進行懸停等待,等待已經完全不能滿足操作者們的使用需求目標,但是獲取前方障礙物距離容易,獲取精準的障礙物輪廓并繞過去卻是新的技術障礙,而關鍵點則如何精確獲得障礙物的深度圖像。

在自然界中,動物們都知道前方遇到障礙物時該如何繞過去,而不是只在障礙物之前等待,而原因在于動物們可以知道障礙物的大致輪廓,只要找到邊緣處所在,就可以從邊上繞過去,然而看似簡單的做法卻包含著很深的套路。

很簡單的就是目前的測障技術很難滿足障礙物輪廓獲取的需求,當無人機采用超聲波進行測距時,只能大致測出前方的距離,只能獲得二維的數(shù)值,而非三維的畫面。

但是目前的TOF和雙目視覺技術則是聲稱可以獲得障礙物深度圖像的技術。也就是說利用這兩種技術來進行障礙物距離測量,只要障礙物沒有充滿整個視覺范圍,其邊緣總會被獲取到,而無人機則可以根據(jù)測量的結果繼續(xù)選擇下一步的飛行路線。

看似問題已經解決,其實不然。舉例來說,當我們出門想到達一個目的地的時候,如果目的地前方有一座高樓,我們可以通過發(fā)現(xiàn)高樓的邊緣從而繞過它來到達目的地,但是我們不可預知的是高樓背后是否有其他的建筑物的存在。無人機也是如此,一旦障礙物之后的近距離還有障礙物的存在,那么依然存在較高的事故發(fā)生率。因此如何應對多重障礙物的存在就成為了無人機避障技術下一步需要探討的對象。

讓無人機自主避障教學研究邁向更高處slam導航避障算法

場景建模和路徑探索

上文說到無人機的避障功能已經需要一個可以應對多重障礙物的技術出現(xiàn),也就是說在目前的技術中,如何對飛行場景進行精準建模,實時獲取場景模型,并通過飛控來設置最優(yōu)避障飛行路徑是重點,這也拉開了無人機避障功能中的場景建模和路徑搜索階段的帷幕。

其實就是基于電子地圖等來源獲取場景模型,利用機載計算機中的算法來得出最優(yōu)路徑,如果應用在自然界中來說,就是當動物經過一些障礙物時,它們的大腦里面會存在相關場景的一個地圖,當再一次經過的時候,就會根據(jù)上次記憶的場景模型來獲取最佳避障路線。無人機雖然不能通過兩次飛行去獲取記憶的場景模型,但是它可以通過其他的科技手段來獲取,也就是說飛行場地的3D地圖等。

讓無人機自主避障教學研究邁向更高處slam導航避障算法

基于該項理論的基礎上,卓翼智能聯(lián)合北航專業(yè)視覺導航團隊研發(fā)出,基于機器視覺無人平臺自主導航避障系統(tǒng),具有立體視覺、運動估計、稠密重建、Slam導航、路徑規(guī)劃、自主避礙等功能。

讓無人機自主避障教學研究邁向更高處slam導航避障算法

系統(tǒng)結合目前熱門研究領域與研究方向,集無人機、無人車、雙目視覺、機載AI視覺處理板卡于一體,形成全套的無人平臺控制、通訊鏈路、視覺圖像采集、圖像識別、三維重建、定位解算等軟件算法解決方案。

為各科研團隊、高校實驗室提供硬件完善、功能齊全、開發(fā)環(huán)境完整、引領行業(yè)發(fā)展的全系統(tǒng)全功能開發(fā)測試環(huán)境,讓各科研團隊專注于slam導航避障算法研究。

該系統(tǒng)提供全套的學科教學課程以及示例算法等,可快速展開相關課程設計,進行實際教學應用階段。教科書級專業(yè)指導,永葆技術先進性。

整體解決方案

基于機器視覺無人平臺自主導航避障系統(tǒng)組成架構:

讓無人機自主避障教學研究邁向更高處slam導航避障算法

讓無人機自主避障教學研究邁向更高處slam導航避障算法

硬件組成

基于機器視覺無人平臺自主導航避障系統(tǒng)硬件由:開發(fā)工作站、無人機系統(tǒng)、機載雙目視覺、機載圖像處理板、VR三維顯示等組成。

1、開發(fā)工作站

開發(fā)工作站是系統(tǒng)開發(fā)實驗控制平臺,主要用于雙目視覺目標識別訓練系統(tǒng)開發(fā)使用,為前期視覺系統(tǒng)控制平臺,當在上位機中控制成功后即可以移植到TX2上進行實時自主控制。

2、無人機平臺

無人機平臺專為基于機器視覺無人平臺自主導航避障系統(tǒng)研發(fā),具有飛行穩(wěn)定??赏ㄟ^串口、USB接口、網絡通訊等多種通訊控制接口控制。可搭載超聲波、激光、光流GPS、PTK等諸多傳感器,適應多種應用環(huán)境與系統(tǒng)組合。

3、機載雙目視覺系統(tǒng)

機載雙目視覺系統(tǒng)包括雙目相機、圖傳系統(tǒng),雙目相機固定于無人機底部,實時采集無人機巡視拍攝信息,發(fā)送至TX2機載處理板卡進行避障、跟隨以及slam計算,或下傳至地面圖傳接收機由開發(fā)工作站進行處理。機載雙目視覺系統(tǒng)所使用的雙目視覺相機為小覓雙目視覺相機。

采用小覓雙目攝像頭標準版,雙目幀在硬件上同步。以60Hz的頻率采集圖像,分辨率達到752×480像素,如圖2.2為小覓雙目標準攝像頭。內置六軸IMU傳感器,頻率可以達到500Hz。雙目基線120mm。采用全局快門,可實現(xiàn)兩個攝像頭的所有像元同時曝光。在高速移動的拍攝場景中,能有效降低圖像畸變,提供更加精準的圖像源。

特點

(1)IMU 六軸傳感器,IMU 與圖像的同步精度高達0.05ms,為 SLAM 算法以及 空間移動算法的研發(fā)提供數(shù)據(jù)校正;

(2)IR 主動光,2顆IR主動光探測器發(fā)射的紅外結構光,有效增強白墻和玻璃等物體 的識別精度,適用于完全黑暗環(huán)境;

自動白平衡,精準調教的感光元件和鏡頭提供室內外感光的自適應和調節(jié);

(3)雙目幀同步,提供兩顆攝像頭的硬件級幀同步,減小因圖像不同步而導致的誤 差;

(4)全局快門,實現(xiàn)每個像元的同時曝光有效降低高速移動拍攝時的圖像畸變;

(5)灰度鏡頭,提供清晰的黑白視覺研究圖像源,分辨率為752x480/60fps;

(6)基線長度,120mm 的基線長度適用絕大多數(shù)雙目應用場景;

(7)鋁合金外殼,陽極鋁加工外殼堅固耐用,采用標準 1/4”螺絲接口;

(8)適用于雙目SLAM研究,支持 VINS,OKVIS, ORB_SLAM2,VIORB 等多個開源 VSLAM 項目,并在 SDK 中提供樣例;

(9)CUDA 加速,提供基于 CUDA 加速的實時深度輸出,使 GPU 能夠解決復雜的計算問題;

(10)豐富數(shù)據(jù)信息,通過 SDK 獲取原始數(shù)據(jù)/校正雙目圖像、視差圖像、實時深度圖像、實時點云圖像、IMU 數(shù)據(jù)等;

(11)多平臺SDK,SDK 適配 Windows、Linux、ROS、Mac、Android、TX1/2 等多種平臺,并提供豐富工具。

4、Jetson TX2機載圖像處理板

Jetson TX2是無人機平臺搭載的深度學習目標檢測算法運行板,為后期將圖像處理移植于機載端進行處理,是深度學習、計算機視覺、圖像處理和GPU計算的優(yōu)秀系統(tǒng),非常適合于無人機、自主機器人、移動醫(yī)學成像等嵌入式系統(tǒng)應用。

Jetson TX2為2017年3月發(fā)布的新一代產品,集成256核NVIDIA Pascal GPU和一個6核64位的ARMv8處理器集群,擁有8GBLPDDR4 128位內存。ARMv8處理器集群包含一個雙核NVIDIA Denver 2以及一個4核ARM Cortex-A57。Jetson TX2模塊大小為50 x 87 mm,重量為85克,典型功耗為7.5瓦。

Jetson TX2基于16納米NVIDIA Tegra “Parker” SOC,其效能比Jetson TX1提升2倍,性能表現(xiàn)超過了Intel Xeon服務器級CPU。

Jetson TX2提供兩種運行模態(tài):一種是MAX Q,能效比能達到最高,是上一代的TX1的2倍,功耗在7.5W以下;另一種是MAX P,性能可以做到最高,能效比同樣可以做到前一代的2倍,功耗則在15W以下。

讓無人機自主避障教學研究邁向更高處slam導航避障算法

5、VR眼鏡進可選硬件

VR眼鏡主要應用于三維顯示使用,其圖像來源為圖傳系統(tǒng),顯示延遲為50ms。

讓無人機自主避障教學研究邁向更高處slam導航避障算法

6、可選硬件

讓無人機自主避障教學研究邁向更高處slam導航避障算法

可開設課程

雙目立體視覺立體深度解算算法設計與實現(xiàn)

三維空間稠密重建算法設計與實現(xiàn)

無人機自主slam運動狀態(tài)估計算法設計與實現(xiàn)

無人機自主slam導航定位算法設計與實現(xiàn)

無人機自主slam導航路徑規(guī)劃算法設計與實現(xiàn)

無人機自主slam導航避障算法設計與實現(xiàn)

軟件開發(fā)與技術支持

1、基于機器視覺無人平臺自主導航避障系統(tǒng)軟件開發(fā)體系

基于機器視覺無人平臺自主導航避障系統(tǒng)軟件開發(fā)體系由視覺開發(fā)平臺、信息交互與任務控制平臺、無人機系統(tǒng)等組成。

雙目攝像頭采集圖像,通過立體匹配技術計算出二維圖像的深度信息,同時利用視覺慣性融合技術估計相機自身的運動姿態(tài),融合多幀深度信息,重建空間環(huán)境的體素地圖。由地圖獲取障礙物距離信息,生成可執(zhí)行路徑。

視覺開發(fā)平臺:由視覺開發(fā)訓練環(huán)境Jetson TX2 視覺處理開發(fā)系統(tǒng)等組成、視覺定位平臺、環(huán)境重建系統(tǒng)等組成。信息交互與任務控制平臺:由信息交互程序、避障與路徑規(guī)劃算法、無人機位置導航控制程序等組成。

系統(tǒng)軟件運行架構如下圖所示:

讓無人機自主避障教學研究邁向更高處slam導航避障算法

2、技術服務

1)開發(fā)環(huán)境

提供全套基于機器視覺無人平臺自主導航避障系統(tǒng)軟件開發(fā)體系:視覺端開發(fā)環(huán)境、 Mavros開發(fā)環(huán)境、飛控開發(fā)環(huán)境

2)軟件源碼

提供全套基于機器視覺無人平臺自主導航避障系統(tǒng)相關源代碼:

a、視覺系統(tǒng)代碼

立體視覺:

主要是在雙目立體視覺系統(tǒng)中,獲取圖像的深度圖。基于立體匹配的生成概率模型ELAS立體視覺算法,用于快速匹配高分辨率圖像。在雙目立體圖像間建立點點對應然后根據(jù)對應點的視差計算出深度。用左右圖像的互相推測,來執(zhí)行左右一致性檢查,消除遮擋區(qū)域中的虛假不匹配和視差。

運動估計:

主要用于計算每幀圖像無人機的位姿。通過滑動窗口優(yōu)化進行實時光流點跟蹤與匹配,視覺和IMU的緊耦合。通過稀疏特征點提取與跟蹤、IMU預積分與初始化處理、KLT光流法進行后端融合優(yōu)化、利用共視的特征點進行閉環(huán)檢測等步驟,完成利用視覺慣導融合的定位算法,實現(xiàn)無人機精確定位。

稠密重建:

主要實現(xiàn)單幀深度圖融合,重建出無人機的環(huán)境。采用在線實時動態(tài)增量式生ESDF算法。ESDF是基于體素網格的方法,每個點包含了該點到最近障礙物的歐幾里得距離。在計算機圖形和視覺應用中,TSDF近來已經成為一種常用的隱函數(shù)表面表示方法。因為TSDF的快速重建和過濾傳感器噪聲,并且可以使用子體素分辨率創(chuàng)建人類可讀的地圖網格。

航跡規(guī)劃:

根據(jù)傳感器的信息來不斷地更新其內部的環(huán)境信息,從而確定出機器人在地圖中的當前位置及周圍局部范圍內的障礙物分布情況,并在此基礎上,規(guī)劃出一條從當前點到某一子目標點的最優(yōu)無碰撞路徑。

Mavros程序

Mavros的最底層程序完成Mavros消息發(fā)布與訂閱,負責將飛控發(fā)來的mavlink消息轉換為ros中的話題,為上層的程序提供消息訂閱,將任務層發(fā)出的ros話題轉換為mavlink消息發(fā)送給飛控。

b、無人機位置控制程序

位置控制程序包含位置估計程序與位置控制程序,代替了飛控中位置控制程序的一部分功能,然后在這個基礎上借助命令發(fā)布這個話題給上層應用提供了接口,便于上層開發(fā)。位置估計做為飛控的位置姿態(tài)狀態(tài)估計,將雷達定位信息轉成飛控能夠使用的類型發(fā)送給飛控進行解算。

c、任務層程序

無人機基本動作控制程序:一鍵起飛、降落、懸停、緊急上鎖、慣性系及機體系下的控制指令等無人機自主控制程序。

組合功能控制程序:自主著陸、自主跟蹤、路徑自主規(guī)劃等無人機自主復雜功能控制程序。

3)提供功能示例

利用雙目相機實現(xiàn)無人機自主避障功能及slam路徑規(guī)劃。

場景建模和路徑搜索作為無人機避障系統(tǒng)較新研究方向,相信會讓無人機自主避障礙方面的科學研究有更多的技術成果突破。而slam導航避障算法,會幫助更多高校進行最新的無人機自主避障礙教學研究。

讓無人機自主避障教學研究邁向更高處slam導航避障算法

讓無人機自主避障教學研究邁向更高處slam導航避障算法

該技術團隊由北京航空航天大學、清華大學、哈爾濱工業(yè)大學等知名高校畢業(yè)的博士和碩士組成,擁有多年教育類無人機系統(tǒng)的研發(fā)經驗,卓翼智能公司與多個高校建立重點實驗室合作,與北航、清華大學、浙江大學、哈工大等多所著名高校的飛行控制實驗室建立長期深度合作。數(shù)位資歷深厚的北航教授、副教授擔任技術顧問,確保研發(fā)環(huán)境和設備的先進性及行業(yè)技術的前瞻性。在無人機設計開發(fā)系統(tǒng)、飛行控制、抗風穩(wěn)定、slam視覺導航、集群與協(xié)同、高精度室內定位系統(tǒng)、無人車等多個領域擁有國內一流的核心技術,擁有國內多項技術專利。

(免責聲明:本網站內容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網站出現(xiàn)的信息,均僅供參考。本網站將盡力確保所提供信息的準確性及可靠性,但不保證有關資料的準確性及可靠性,讀者在使用前請進一步核實,并對任何自主決定的行為負責。本網站對有關資料所引致的錯誤、不確或遺漏,概不負任何法律責任。
任何單位或個人認為本網站中的網頁或鏈接內容可能涉嫌侵犯其知識產權或存在不實內容時,應及時向本網站提出書面權利通知或不實情況說明,并提供身份證明、權屬證明及詳細侵權或不實情況證明。本網站在收到上述法律文件后,將會依法盡快聯(lián)系相關文章源頭核實,溝通刪除相關內容或斷開相關鏈接。 )