留言板

尊敬的读者、作者、审稿人, 关于本刊的投稿、审稿、编辑和出版的任何问题, 您可以本页添加留言。我们将尽快给您答复。谢谢您的支持!

姓名
邮箱
手机号码
标题
留言内容
验证码

基于视觉辅助导航的小旋翼机群编队穿越障碍技术

王梓豪 朱波 王奇 厚秉新 秦开宇

王梓豪, 朱波, 王奇, 厚秉新, 秦开宇. 基于视觉辅助导航的小旋翼机群编队穿越障碍技术[J]. 电子科技大学学报, 2021, 50(3): 391-397. doi: 10.12178/1001-0548.2021025
引用本文: 王梓豪, 朱波, 王奇, 厚秉新, 秦开宇. 基于视觉辅助导航的小旋翼机群编队穿越障碍技术[J]. 电子科技大学学报, 2021, 50(3): 391-397. doi: 10.12178/1001-0548.2021025
WANG Zi-Hao, ZHU Bo, WANG Qi, HOU Bing-Xin, QIN Kai-Yu. Heterogeneous Micro Air Vehicles Formation Crossing Obstacles Based on Vision-Aided Navigation[J]. Journal of University of Electronic Science and Technology of China, 2021, 50(3): 391-397. doi: 10.12178/1001-0548.2021025
Citation: WANG Zi-Hao, ZHU Bo, WANG Qi, HOU Bing-Xin, QIN Kai-Yu. Heterogeneous Micro Air Vehicles Formation Crossing Obstacles Based on Vision-Aided Navigation[J]. Journal of University of Electronic Science and Technology of China, 2021, 50(3): 391-397. doi: 10.12178/1001-0548.2021025

基于视觉辅助导航的小旋翼机群编队穿越障碍技术

doi: 10.12178/1001-0548.2021025
详细信息
    作者简介:

    王梓豪(1991-),男,博士生,主要从事计算机视觉、无人机视觉导航等方面的研究

    通讯作者: 秦开宇,E-mail:kyqin@uestc.edu.cn
  • 中图分类号: V279

Heterogeneous Micro Air Vehicles Formation Crossing Obstacles Based on Vision-Aided Navigation

  • 摘要: 该文基于单目视觉定位方法和LiDAR激光测高滤波算法,结合主−从式无人机编队策略,提出了一种低精度GPS条件下多传感器融合的小旋翼无人机编队穿越障碍技术。通过对该旋翼机编队系统的硬件架构、传感器分配、机载自组织网络以及机载编队地面站软件接口等关键模块的设计,最终搭建了一套完整的旋翼机编队测试平台。在完成视觉定位算法、激光数据时域滤波、ROS下编队飞行等仿真验证的基础上,进行了室外测试场地实机编队飞行测试,并利用该技术实现了对多组随机位置的门框类障碍的编队穿越、在线路径规划、一键式起飞返航等编队飞行任务,验证了该技术在室外复杂飞行环境中的可行性。
  • 图  1  无人机编队穿越障碍技术框图

    图  2  试飞阶段实机展示图

    图  3  视觉识别与避障算法流程图

    图  4  定高时域滤波器仿真

    图  5  室内视觉定位仿真示意

    图  6  室外视觉定位仿真示意

    图  7  无人机集群飞行穿越障碍示意图

    图  8  Rviz仿真无人机集群飞行穿越障碍

    图  9  2号障碍主机第一视角

    图  10  1号附近主机第一视角

    图  11  1号障碍平视穿越瞬间

    图  12  3号障碍仰视穿越瞬间

    表  1  障碍穿越区域中心坐标信息

    编号经度/(°)纬度/(°)角度/(°)
    1号115.700267139.534850191
    2号115.702867639.534949892
    3号115.703309039.5360343270
    4号115.699728939.5358178270
    下载: 导出CSV

    表  2  外场实机编队穿越实验数据

    序号次数成功率/%平均穿越航向角/(°)
    1号门771.04.02
    2号门887.5−1.94
    3号门683.32.28
    4号门560.0−3.51
    下载: 导出CSV
  • [1] YANG Zhi-yuan, DUAN Hai-bin, FAN Yan-ming, et al. Unmanned aerial vehicle formation controller design via the behavior mechanism in wild geese based on Levy flight pigeon-inspired optimization[J]. Scientia Sinica Technologica, 2018, 48(2): 161-169. doi:  10.1360/N092017-00127
    [2] CHIARAMONTI M, MENGALI G. Control laws for a formation of autonomous flight vehicles[J]. Aeronautical Journal, 2016, 113(1147): 609-616.
    [3] GAO Tian-han, LANG Fan, GUO Nan. An emergency communication system based on UAV-assisted self-organizing network[C]//2016 10th International Conference on Innovative Mobile and Internet Services in Ubiquitous Computing (IMIS). [S.l.]: IEEE, 2016: DOI: 10.1109/IMIS.2016.132.
    [4] SHARMA V, KUMAR R. A cooperative network framework for Multi-UAV guided ground Ad Hoc networks[J]. Journal of Intelligent & Robotic Systems, 2015, 77(3-4): 629-652.
    [5] GU Yu, GROSS J N, RHUDY M B, et al. A fault-tolerant multiple sensor fusion approach applied to UAV attitude estimation[EB/OL]. [2020-11-12]. https://doi.org/10.1155/2016/6217428.
    [6] HAUSMAN K, WEISS S, BROCKERS R, et al. Self-calibrating multi-sensor fusion with probabilistic measurement validation for seamless sensor switching on a UAV[C]//IEEE International Conference on Robotics and Automation (ICRA). [S.l.]: IEEE, 2016: DOI: 10.1109/ICRA.2016.7487626.
    [7] 吕科, 施泽南, 李一鹏. 微型无人机视觉定位与环境建模研究[J]. 电子科技大学学报, 2017, 46(3): 543-548. doi:  10.3969/j.issn.1001-0548.2017.03.011

    LÜ Ke, SHI Ze-nan, LI Yi-peng. Visual localization and environment mapping for micro aerial vehicles[J]. Journal of University of Electronic Science and Technology of China, 2017, 46(3): 543-548. doi:  10.3969/j.issn.1001-0548.2017.03.011
    [8] SUZUKI T, INOUE D, AMANO Y. Robust UAV position and attitude estimation using multiple GNSS receivers for laser-based 3D mapping[C]//2019 IEEE/RSJ International Conference on Intelligent Robots and Systems (IROS). [S.l.]: IEEE, 2019: DOI: 10.1109/IROS40897.2019.8967894.
    [9] LIU Xiao-mei, GE S S, GOH C H. Vision-based leader−follower formation control of multiagents with visibility constraints[J]. IEEE Transactions on Control Systems Technology, 2019, 27(3): 1326-1333. doi:  10.1109/TCST.2018.2790966
    [10] DAS A K, FIERRO R, KUMAR V, et al. A vision-based formation control framework[J]. IEEE Transactions on Robotics and Automation, 2002, 18(5): 813-825. doi:  10.1109/TRA.2002.803463
    [11] AMEDEO V, GIANCARMINE F, DOMENICO A, et al. Differential GNSS and vision-based tracking to improve navigation performance in cooperative multi-uav systems[J]. Sensors, 2016, 16(12): 2164. doi:  10.3390/s16122164
    [12] MA Li-li, HOVAKIMYAN N. Cooperative target tracking in balanced circular formation: Multiple UAVs tracking a ground vehicle[C]//IEEE 2013 American Control Conference (ACC). Washington DC: IEEE, 2013: DOI: 10.1109/ACC.2013.6580679.
    [13] NÄGELI T, CONTE C, DOMAHIDI A, et al. Environment-independent formation flight for micro aerial vehicles[C]//2014 IEEE/RSJ International Conference on Intelligent Robots and Systems. [S.l.]: IEEE, 2014: 1141-1146.
    [14] NETO A, ROMERO R. A decentralized approach to drone formation based on leader-follower technique[C]//Anais do VII Simpósio Brasileiro de Robótica e XVI Simpósio Latino Americano de Robótica. [S.l.]: SBC, 2019: 357-361.
    [15] NEALE C M U, MALTESE A, MANDLBURGER G, et al. Complementing airborne laser bathymetry with UAV-based lidar for capturing alluvial landscapes[C]//Spie Remote Sensing. Toulouse, France: [s.n.], 2015: 96370A.
    [16] RAMASAMY S, SABATINI R, GARDI A, et al. LIDAR obstacle warning and avoidance system for unmanned aerial vehicle sense-and-avoid[J]. Aerospace Science and Technology, 2016, DOI:  10.1016/j.ast.2016.05.020.
    [17] CHEN Chen, XIONG Guang-ming, ZHANG Zhe-hua, et al. 3D LiDAR-GPS/IMU Calibration based on hand-eye calibration model for unmanned vehicle[C]//2020 3rd International Conference on Unmanned Systems (ICUS). [S.l.]: IEEE, 2020: DOI: 10.1109/ICUS50048.2020.9274947.
    [18] LOIANNO G, BRUNNER C, MCGRATH G, et al. Estimation, control, and planning for aggressive flight with a small quadrotor with a single camera and IMU[J]. IEEE Robotics & Automation Letters, 2017, 2(2): 404-411.
    [19] SANKET N J, DEEP S C, KANISHKA G, et al. GapFlyt: Active vision based minimalist structure-less gap detection for quadrotor flight[J]. IEEE Robotics and Automation Letters, 2018, 3(4): 2799-2806. doi:  10.1109/LRA.2018.2843445
    [20] ZHANG Xu-pei, MA Zhong, HE Zhan-zhuang, et al. Vision-based UAV obstacle avoidance algorithm on the embedded platform[C]//2019 International Conference on Unmanned Systems and Artificial Intelligence (ICUSAI). Xi'an: IEEE, 2019: DOI: 10.1109/ICUSAI47366.2019.9124868.
  • [1] 黄瑞, 张轶.  高适应性激光雷达SLAM . 电子科技大学学报, 2021, 50(1): 52-58. doi: 10.12178/1001-0548.2020196
    [2] 罗龙, 胡凯文, 盛丽, 孙罡, 曹可建, 虞红芳.  基于鱼群优化的车载自组织网络路由算法 . 电子科技大学学报, 2021, 50(4): 488-495. doi: 10.12178/1001-0548.2021038
    [3] 于秦, 胥可, 王太军, 丁荣生.  无线传感网络的元胞自动机自组织算法研究 . 电子科技大学学报, 2019, 48(4): 481-486. doi: 10.3969/j.issn.1001-0548.2019.04.001
    [4] 朱金奇, 孙华志, 刘念伯, 马春梅.  车载自组织网络中停放车辆合作的多媒体内容分发 . 电子科技大学学报, 2018, 47(4): 566-572, 620. doi: 10.3969/j.issn.1001-0548.2018.04.015
    [5] 余玲飞, 龚海刚, 刘念伯, 周圣二.  一种车载自组织网络高效数据分发机制研究 . 电子科技大学学报, 2018, 47(3): 389-396. doi: 10.3969/j.issn.1001-0548.2018.03.011
    [6] 肖宇峰, 黄鹤, 郑杰, 刘冉.  Kinect与二维激光雷达结合的机器人障碍检测 . 电子科技大学学报, 2018, 47(3): 337-342. doi: 10.3969/j.issn.1001-0548.2018.03.003
    [7] 王瑞锦, 黄耀东, 徐志远, 秦志光.  复杂山体表面传感器网络定位算法 . 电子科技大学学报, 2015, 44(3): 433-438. doi: 10.3969/j.issn.1001-0548.2015.03.020
    [8] 廖丹, 孙罡, 杨晓玲, 虞红芳.  车载自组织网络单接口多信道的切换方法 . 电子科技大学学报, 2015, 44(2): 227-232. doi: 10.3969/j.issn.1001-0548.2015.02.012
    [9] 王瑞锦, 秦志光, 王佳昊.  无线传感器网络分簇路由协议分析 . 电子科技大学学报, 2013, 42(3): 400-405. doi: 10.3969/j.issn.1001-0548.2013.03.016
    [10] 冯春, 吴洪涛, 乔兵, 张家驹.  基于改进形状上下文的双焦图像深度估计 . 电子科技大学学报, 2013, 42(2): 266-271. doi: 10.3969/j.issn.1001-0548.2013.02.017
    [11] 陈拥军, 袁慎芳.  无线传感器网络最小能耗拓扑控制研究 . 电子科技大学学报, 2012, 41(4): 568-573. doi: 10.3969/j.issn.1001-0548.2012.04.018
    [12] 贾晨军, 廖永建, 陈抗生.  无线传感器网络中的高效签名算法 . 电子科技大学学报, 2009, 38(4): 537-541. doi: 10.3969/j.issn.1001-0548.2009.04.015
    [13] 白翔, 毛玉明.  支持多优先级的无线自组织网接纳控制方案 . 电子科技大学学报, 2008, 37(4): 530-533.
    [14] 董吉辉, 杨华军, 邱琪, 黄波.  A脉冲激光雷达测速的曲线拟合方法 . 电子科技大学学报, 2005, 34(6): 771-773,849.
    [15] 黄波, 邱琪.  空间激光雷达最小接收光功率的计算 . 电子科技大学学报, 2004, 33(1): 35-38.
    [16] 王蔚然, 潘晓强, 张晓霞, 万里冰.  机载激光雷达成像畸变的仿真分析 . 电子科技大学学报, 1999, 28(4): 410-414.
    [17] 吴健, 贺联合, 彭仁军, 程莉, 刘盛纲.  干涉仪激光成像原理及实验 . 电子科技大学学报, 1999, 28(4): 419-422.
    [18] 杨春平, 吴健, 何毅, Zhang Wei.  激光雷达在空间交会对接中的应用 . 电子科技大学学报, 1999, 28(4): 447-451.
    [19] 王蔚然.  机载激光成像雷达运动畸变的分析与修正 . 电子科技大学学报, 1998, 27(6): 583-587.
    [20] 王光泰, 周先敏, 徐继麟.  多传感器信息最优融合 . 电子科技大学学报, 1997, 26(5): 465-467.
  • 加载中
图(12) / 表(2)
计量
  • 文章访问数:  4753
  • HTML全文浏览量:  1526
  • PDF下载量:  45
  • 被引次数: 0
出版历程
  • 收稿日期:  2021-01-25
  • 修回日期:  2021-03-18
  • 网络出版日期:  2021-05-28
  • 刊出日期:  2021-05-28

基于视觉辅助导航的小旋翼机群编队穿越障碍技术

doi: 10.12178/1001-0548.2021025
    作者简介:

    王梓豪(1991-),男,博士生,主要从事计算机视觉、无人机视觉导航等方面的研究

    通讯作者: 秦开宇,E-mail:kyqin@uestc.edu.cn
  • 中图分类号: V279

摘要: 该文基于单目视觉定位方法和LiDAR激光测高滤波算法,结合主−从式无人机编队策略,提出了一种低精度GPS条件下多传感器融合的小旋翼无人机编队穿越障碍技术。通过对该旋翼机编队系统的硬件架构、传感器分配、机载自组织网络以及机载编队地面站软件接口等关键模块的设计,最终搭建了一套完整的旋翼机编队测试平台。在完成视觉定位算法、激光数据时域滤波、ROS下编队飞行等仿真验证的基础上,进行了室外测试场地实机编队飞行测试,并利用该技术实现了对多组随机位置的门框类障碍的编队穿越、在线路径规划、一键式起飞返航等编队飞行任务,验证了该技术在室外复杂飞行环境中的可行性。

English Abstract

王梓豪, 朱波, 王奇, 厚秉新, 秦开宇. 基于视觉辅助导航的小旋翼机群编队穿越障碍技术[J]. 电子科技大学学报, 2021, 50(3): 391-397. doi: 10.12178/1001-0548.2021025
引用本文: 王梓豪, 朱波, 王奇, 厚秉新, 秦开宇. 基于视觉辅助导航的小旋翼机群编队穿越障碍技术[J]. 电子科技大学学报, 2021, 50(3): 391-397. doi: 10.12178/1001-0548.2021025
WANG Zi-Hao, ZHU Bo, WANG Qi, HOU Bing-Xin, QIN Kai-Yu. Heterogeneous Micro Air Vehicles Formation Crossing Obstacles Based on Vision-Aided Navigation[J]. Journal of University of Electronic Science and Technology of China, 2021, 50(3): 391-397. doi: 10.12178/1001-0548.2021025
Citation: WANG Zi-Hao, ZHU Bo, WANG Qi, HOU Bing-Xin, QIN Kai-Yu. Heterogeneous Micro Air Vehicles Formation Crossing Obstacles Based on Vision-Aided Navigation[J]. Journal of University of Electronic Science and Technology of China, 2021, 50(3): 391-397. doi: 10.12178/1001-0548.2021025
  • 旋翼机集群编队穿越障碍技术是一个多学科交叉的领域,涉及到了编队飞行控制[1-2]、无人机集群自组织网络[3-4]、机载传感器数据融合[5-6]及空间环境智能感知[7-8]等。其中,旋翼机集群对目标的感知定位与避障能力是其完成复杂飞行任务的重要基础之一。考虑到旋翼机的载荷能力,轻便型视觉传感器是作为辅助定位与避障穿越任务的良好选择。针对此类问题,国内外已经展开了相关研究,文献[9-12]提供了目前常见的一些基于视觉辅助的旋翼机编队导航方案;文献[13-14]提供了基于主−从式(leader-follower)异构旋翼机编队的导航方案。此外,在近地面低空飞行的情况下,由于气压计不稳定带来的旋翼机与地面相对测高误差也是一个需要解决的难题。随着激光雷达的发展,小型LiDAR激光传感器可作为旋翼机低空测高的良好选择,研究者们也开始关注该领域的相关问题,如基于LiDAR的地形测量[15]、机载LiDAR辅助避障[16]、LiDAR与惯性导航器件融合定位[17]等。

    旋翼机编队技术应用广泛,如空中侦测、编队作战打击、无人机物流等。这些应用中涉及穿越复杂障碍[18-20],如峡谷、高楼缝隙、大型物流仓库的门窗等。如何为无人机提供有效的环境感知和穿越障碍技术是一个亟待解决的问题。基于以上思考,本文提出一种飞行通道约束的概念,将街道两边建筑或者具有直线特征的障碍抽象成类似矩形门框的两条竖边,并精准估计门框的中心点,以此作为期望航点实现对障碍的穿越。

    该研究内容参加了2018年由空军装备部举办的首届“无人争锋”智能无人机集群系统挑战赛科目1(SC-1):密集编队穿越竞速赛。主要研究贡献如下:

    1) 完成异构无人机编队穿越仿真验证,并构建了一套无人机集群编队飞行实机软硬件测试平台;

    2) 设计一种基于单目视觉辅助的目标相对定位方法,实现了无人机编队在线实时穿越与路径规划;

    3) 设计一套多传感器融合的安全飞行策略,并设计一种基于激光定高数据的时域滤波器,为无人机编队在低空复杂环境中的飞行定高提供保障。

    • 总体框架研究将小旋翼无人机编队穿越系统分为硬件、软件和算法3个层面,如图1所示。

      以此技术框架为基础,进一步研究基于视觉辅助的小旋翼无人机编队穿越障碍技术,以解决主−从式异构旋翼机编队飞行任务中的避障穿越、路径规划、安全飞行策略等技术问题。

    • 旋翼机分为主机和从机两个型号,主机采用550 mm轴距机架和14寸桨叶,质量为630 g,最大载重6 kg。从机采用360 mm轴距机架和9寸桨叶,机架总重量为267 g,最大载重3 kg。此外,主机将额外搭载机载英特尔迷你i7处理器、机载路由器、单目视觉传感器和云台,担负起地面站软件控制、WIFI广播、障碍感知与定位等重要任务。图2展示了试飞准备阶段的主机和从机实物图。

      主机搭载3自由度云台的单目视觉传感器为避障穿越提供辅助视觉输入信息。该摄像头具有轻便、低成本、安装便捷等特点,最大分辨率$1\;600 \times 1\;200$,焦距2.8 mm,刷新率30 Hz,模块尺寸30 mm×30 mm。采用采样率500 Hz工业级激光传感器LiDAR Lite辅助定高,实现低空飞行条件下对地面的精确相对定高。根据光照条件不同,实测该激光雷达有效距离为16~40 m之间。

      图  1  无人机编队穿越障碍技术框图

      图  2  试飞阶段实机展示图

      主机的机载型地面站可以通过WiFi路由器实现和从机的WiFi收发模块进行通信,实现位置信息、控制指令的交互。相比于传统的固定地面站,由于主机采用机载地面站和机载WiFi路由器的形式,较好地保障了与附近从机指令交互的实时性。此外,地面控制人员若发现异常,可以利用远距离数传模块实现编队一键返航功能,进一步提升了集群飞行的安全性。

    • 平台采用的地面站软件是由北京飞行魔方科技有限公司利用Mission Planner二次开发的无人机编队控制地面站软件。该地面站主要由飞行器管理、任务设计、实时控制、实时数据查看等部分组成。本文利用Visual Studio 2015开发了基于视觉避障算法和数传通信的专用开发包,该开发包基于编队控制软件提供的服务使用命名管道实现双向通讯,保证了两个进程通讯的可靠性和时效性,通过管道发送命令字符控制编队。利用开发的视觉避障模块,可以向该地面站发布最新航点数据,实现无人机集群的在线路径规划与避障穿越功能;利用远距离数传模块实现紧急返航等功能。利用开发包和无人机地面站软件,可以实时监控无人机集群的基本飞行状态、定位数据、航迹规划轨迹等信息。

    • 当旋翼机编队发现并接近待穿越的障碍区域时,主机利用视觉传感器获取目标障碍的图像信息后求解其几何穿越点的相对3D空间位置。利用低精度的GPS获取了多帧图像间的基线,采用三角定位初步估计目标穿越点并模拟出穿越路径。由于GPS模块往往存在1~5 m的定位估计误差,需要在飞行过程中利用多帧2D图像进行连续跟踪,修正穿越点的空间位置坐标使得其保持在2D图像的中心区域,算法流程如图3所示。

      图  3  视觉识别与避障算法流程图

      假设两张图中同一特征角点空间坐标为$P(X,Y,Z)$,其投影在2D图像的坐标为${p_2}({x_2},{y_2},{z_2})$${p_1}({x_1},{y_1},{z_1})$。两帧间相机运动为$[{ {R,t}}]$,其中${ R}$为旋转矩阵,${ {t}}$为平行向量。由于相机安装了云台,可知旋转矩阵${ {R}}$为单位矩阵,因此两帧图像的空间变化由位移向量${ {t}}$表征,可得为基线长度即为${ {t}}$

      根据对极几何理论可以知,设${x_1},{x_2}$${p_1},{p_2}$特征点归一化坐标,它们满足:

      $${z_1}{x_1}\;\; = \;{z_2}{ R}{x_2} + { t}$$ (1)

      已知${ R}$为单位矩阵,${ t}$可由GPS信号和雷达定高信号融合获得。求解${z_2}$,可对(1)式的两侧同时左乘${x_1}$的外积$x_1^ \wedge $

      $${z_1}x_1^ \wedge {x_1}\; = \;0\; = {z_2}x_1^ \wedge {x_2} + x_1^ \wedge t$$ (2)

      上式左侧为0,可以看做是未知数为${z_2}$的方程进行求解,同理可以求得${z_1}$。已知目标深度后,可以利用单目针孔模型获得穿越点空间位置,并将穿越航点下发到地面站。利用多帧实时解算连续修正穿越点定位误差,以提高成功穿越障碍的概率。当发现穿越点计算偏离原值大于0.1 m时,进行实时路径规划修正。

    • 一方面,考虑到气压计和GPS信号融合获得的高度信息通常存在0.3~0.8 m的误差,因此采用激光雷达测高作为辅助手段。另一方面,为了防止激光定高数据抖动或者故障时旋翼机出现冲高等危险动作,采用激光、气压计、GPS信号同时对高度进行估计:

      1)在0~16 m:正常飞行避障条件下,激光作为主要参考,利用滤波后的激光数据作为无人机相对地面的测高值;

      2)在12 m以上:加入Pixhawk内部融合的气压计和GPS信息作为保护,如果检测到激光定高数据相对Pixhawk内部相对高度数据值偏离超过2 m即判定激光数据异常,则自动切换到Pixhawk内部气压计和GPS信号融合的定高数据。

    • 考虑到在低空区域更多关注无人机集群相对地面的高度,针对激光定高数据面对地面变化时抖动大容易引起飞行控制环路产生过调节现象或者震荡反馈等问题,给出了一种时域滤波方法:

      $${\rm H}{{\rm F}_n} = {\rm H}{{\rm F}_{n - 1}} + S ({\rm H}{{\rm L}_{n - 1}} - {\rm H}{{\rm F}_{n - 1}})$$ (3)

      式中,${\rm H}{{\rm F}_n}$$n$时刻待求的无人机期望高度;${\rm H}{{\rm F}_{n{\rm{ - }}1}}$$n{\rm{ - }}1$时刻已知的无人机期望高度;${\rm H}{{\rm L}_{n - 1}}$$n{\rm{ - }}1$时刻的激光雷达数据。$S$定义为滤波补偿项:

      $$S = \dfrac{R}{{\left(R + {2^{ - \frac{{\Delta {\rm H}{{\rm L}_{n - 1}}}}{{\Delta d}}}}\right)}}$$ (4)

      式中,$R$为实可变参数的阻力因子,$R$值越小,平滑滤波效果越明显;${\dfrac{{\Delta {\rm{H}}{{\rm{L}}_{n - 1}}}}{{\Delta d}}}$表示$n{\rm{ - }}1$时刻激光定高数据相对于水平位移的变化斜率。该滤波器可以有效过滤中小型坑洼和树木造成的激光数据突变,5.1节实验部分将进行具体分析与说明。

    • 考虑到异构无人机编队采用的是主−从结构,且视觉传感器搭载在主机上。因此,编队采用了一字型方案,主机在前,从机跟随排列,从而提供更可靠和宽阔的视觉输入信息。考虑到GPS误差等因素,设定单个飞机水平安全防碰撞区域为2.5 m,机间水平方向间隔保持5 m。垂直地面方向考虑有激光传感器,定位精度相对较高,设定单个飞机垂直安全防碰撞区域为2 m,考虑到气流气压等因素,机间垂直方向安全距离为4 m。

    • 结合“无人争锋”比赛的实验试飞场地,编队穿越飞行测试流程如下:1)无人机编队利用机载地面站发布起飞指令后,一字型编队飞行到各个门框障碍附近并搜索门框目标;2)利用主机的单目相机和LiDAR激光等传感器实现障碍目标定位,解算穿越点的空间坐标和穿越航向角,并分配各个无人机的穿越路线;3)利用地面站软件将最终航点下发到其他从机,无人机编队进行穿越障碍并向下一个障碍区域编队飞行;4)依次完成4个门框的穿越任务,返回起飞点完成安全降落。

      此外,利用4.2节中的保护策略和pixhawk中的故障保护设计,一旦发生主机丢失、坠毁等严重事故,从机将自动切换一键返航,达到减小机群损失的目的。

    • 针对4.2.2节的滤波器,仿真中对两种地形进行模拟与分析:1) 具有连续坑洼和树木的地形,在该类地形条件下,通常希望滤波器能过滤激烈的数据抖动,保持平稳飞行。2) 具有台阶特征的地形,在该类地形条件下,通常希望无人机能保持和地面的相对高度,并在台阶处作平滑上升动作,减少激烈的陡然攀升动作。

      模拟飞行高度相对于地面为5 m,设定气压计噪声为标准差0.20、方差1、均值0的高斯噪声;激光噪声为标准差0.01、方差1、均值0的高斯噪声;在不同阻力因子$R$下的仿真激光数据的滤波输出结果如图4所示。

      图  4  定高时域滤波器仿真

      图4a可得到,随着$R$的减小,过滤效果越来越明显,且相比于缓慢变化的气压计定高,利用激光相对定高数据更具稳定性。由图4b可以得,随着$R$的减小,通过陡变平台的平滑效果越来越明显,平滑过渡防止了无人机控制环路过高的调节量,既节约了能源,其飞行过程也更加安全平稳。

    • 考虑到无人机飞行测试成本,首先在室内设计按比例缩小的门框障碍,利用机载单目相机离线测试视觉定位算法可靠性。相较于室内,室外环境更多地受到光照和成像质量的影响。本文在户外实验中还原了比赛场地障碍设置并进行了实际测量,该门框障碍高2.4 m,宽7.2 m。室内和室外的测试效果如图5图6所示。

      图  5  室内视觉定位仿真示意

      图  6  室外视觉定位仿真示意

      因研究背景是无人机集群穿越障碍,将问题转换为寻找合适的障碍穿越角度,其中定义${\rm{angle}}$角为门框法线方向与门框中点和镜头连线的夹角,即该时刻无人机应该选择的穿越航向角。分别进行的20次室内、室外仿真测试中,穿越角度平均误差分别为0.85°和1.87°,满足无人机集群的穿越条件。

    • 利用ROS (robot operating system)系统的Rviz仿真工具进行了无人机编队飞行逻辑验证。其可视化的特点方便分析飞行逻辑,图7图8给出了编队飞行逻辑示意图和Rviz下的仿真轨迹,红点为随机出现的门框障碍区域,黄点为主机,黑点为从机。

      图  7  无人机集群飞行穿越障碍示意图

      图  8  Rviz仿真无人机集群飞行穿越障碍

    • 在完成无人机的LiDAR激光传感器调试、单目相机与云台测试、集群离线仿真编队验证后,旋翼机编队在正式的测试场地进行了完整的穿越障碍飞行测试。表1为测试飞行场地中4个障碍门框区域(障碍门将在该区域附近随机出现)的经纬度数据以及门框法线相对于正北顺时针朝向的角度数据。

      表 1  障碍穿越区域中心坐标信息

      编号经度/(°)纬度/(°)角度/(°)
      1号115.700267139.534850191
      2号115.702867639.534949892
      3号115.703309039.5360343270
      4号115.699728939.5358178270

      旋翼机需要完成对目标障碍进行搜索、识别、编队穿越。图9图10展示了编号不同区域,主机获取的视觉第一视角。图11图12展示了不同位置观测到无人机编队穿越门框障碍的瞬间。

      图  9  2号障碍主机第一视角

      图  10  1号附近主机第一视角

      可以看出,2号门附近地面平坦整洁,1号门附近树木坑洼较多。在不同的光照条件、地形条件下,无人机集群均能稳定地识别、估计定位并穿越障碍目标。

      图  11  1号障碍平视穿越瞬间

      图  12  3号障碍仰视穿越瞬间

      表2给出了比赛场地测试的穿越次数、穿越航向角与成功率的相关实验数据。

      表 2  外场实机编队穿越实验数据

      序号次数成功率/%平均穿越航向角/(°)
      1号门771.04.02
      2号门887.5−1.94
      3号门683.32.28
      4号门560.0−3.51

      在条件允许的情况下尽可能多的在4个区域进行了编队穿越障碍测试。通过表2可以看出,由于各个穿越区地形特点与测试难度不同,飞行成功率也存在差异。其中,2号门区域地面平坦、环境简单的特点提高了其穿越成功率。1、4号门地面坑洼,树木繁多,且该区域飞行时测试时出现磁罗盘误差较大,因此穿越成功率有所下降。总体来说,在实机编队穿越测验中穿越总体成功率达到77%左右,说明该技术具备可行性和进一步研究的价值。

    • 本文完整地构建了该小旋翼无人机编队系统的软硬件一体化平台。利用视觉、LiDAR等传感器实现了对无人机集群的辅助测高与目标障碍的定位与穿越,提出了一种小旋翼无人机编队穿越障碍技术。针对复杂室外环境穿越障碍这一技术目标,提出基于单目视觉的连续跟踪定位算法和基于激光雷达的时域滤波方法,提高了对待穿越障碍目标的定位精度和可靠性,并通过大量仿真测试和实机编队飞行实验验证了该技术方案的可行性。

参考文献 (20)

目录

    /

    返回文章
    返回