-
旋翼机集群编队穿越障碍技术是一个多学科交叉的领域,涉及到了编队飞行控制[1-2]、无人机集群自组织网络[3-4]、机载传感器数据融合[5-6]及空间环境智能感知[7-8]等。其中,旋翼机集群对目标的感知定位与避障能力是其完成复杂飞行任务的重要基础之一。考虑到旋翼机的载荷能力,轻便型视觉传感器是作为辅助定位与避障穿越任务的良好选择。针对此类问题,国内外已经展开了相关研究,文献[9-12]提供了目前常见的一些基于视觉辅助的旋翼机编队导航方案;文献[13-14]提供了基于主−从式(leader-follower)异构旋翼机编队的导航方案。此外,在近地面低空飞行的情况下,由于气压计不稳定带来的旋翼机与地面相对测高误差也是一个需要解决的难题。随着激光雷达的发展,小型LiDAR激光传感器可作为旋翼机低空测高的良好选择,研究者们也开始关注该领域的相关问题,如基于LiDAR的地形测量[15]、机载LiDAR辅助避障[16]、LiDAR与惯性导航器件融合定位[17]等。
旋翼机编队技术应用广泛,如空中侦测、编队作战打击、无人机物流等。这些应用中涉及穿越复杂障碍[18-20],如峡谷、高楼缝隙、大型物流仓库的门窗等。如何为无人机提供有效的环境感知和穿越障碍技术是一个亟待解决的问题。基于以上思考,本文提出一种飞行通道约束的概念,将街道两边建筑或者具有直线特征的障碍抽象成类似矩形门框的两条竖边,并精准估计门框的中心点,以此作为期望航点实现对障碍的穿越。
该研究内容参加了2018年由空军装备部举办的首届“无人争锋”智能无人机集群系统挑战赛科目1(SC-1):密集编队穿越竞速赛。主要研究贡献如下:
1) 完成异构无人机编队穿越仿真验证,并构建了一套无人机集群编队飞行实机软硬件测试平台;
2) 设计一种基于单目视觉辅助的目标相对定位方法,实现了无人机编队在线实时穿越与路径规划;
3) 设计一套多传感器融合的安全飞行策略,并设计一种基于激光定高数据的时域滤波器,为无人机编队在低空复杂环境中的飞行定高提供保障。
-
当旋翼机编队发现并接近待穿越的障碍区域时,主机利用视觉传感器获取目标障碍的图像信息后求解其几何穿越点的相对3D空间位置。利用低精度的GPS获取了多帧图像间的基线,采用三角定位初步估计目标穿越点并模拟出穿越路径。由于GPS模块往往存在1~5 m的定位估计误差,需要在飞行过程中利用多帧2D图像进行连续跟踪,修正穿越点的空间位置坐标使得其保持在2D图像的中心区域,算法流程如图3所示。
假设两张图中同一特征角点空间坐标为
$P(X,Y,Z)$ ,其投影在2D图像的坐标为${p_2}({x_2},{y_2},{z_2})$ 和${p_1}({x_1},{y_1},{z_1})$ 。两帧间相机运动为$[{ {R,t}}]$ ,其中${ R}$ 为旋转矩阵,${ {t}}$ 为平行向量。由于相机安装了云台,可知旋转矩阵${ {R}}$ 为单位矩阵,因此两帧图像的空间变化由位移向量${ {t}}$ 表征,可得为基线长度即为${ {t}}$ 。根据对极几何理论可以知,设
${x_1},{x_2}$ 为${p_1},{p_2}$ 特征点归一化坐标,它们满足:$${z_1}{x_1}\;\; = \;{z_2}{ R}{x_2} + { t}$$ (1) 已知
${ R}$ 为单位矩阵,${ t}$ 可由GPS信号和雷达定高信号融合获得。求解${z_2}$ ,可对(1)式的两侧同时左乘${x_1}$ 的外积$x_1^ \wedge $ :$${z_1}x_1^ \wedge {x_1}\; = \;0\; = {z_2}x_1^ \wedge {x_2} + x_1^ \wedge t$$ (2) 上式左侧为0,可以看做是未知数为
${z_2}$ 的方程进行求解,同理可以求得${z_1}$ 。已知目标深度后,可以利用单目针孔模型获得穿越点空间位置,并将穿越航点下发到地面站。利用多帧实时解算连续修正穿越点定位误差,以提高成功穿越障碍的概率。当发现穿越点计算偏离原值大于0.1 m时,进行实时路径规划修正。 -
一方面,考虑到气压计和GPS信号融合获得的高度信息通常存在0.3~0.8 m的误差,因此采用激光雷达测高作为辅助手段。另一方面,为了防止激光定高数据抖动或者故障时旋翼机出现冲高等危险动作,采用激光、气压计、GPS信号同时对高度进行估计:
1)在0~16 m:正常飞行避障条件下,激光作为主要参考,利用滤波后的激光数据作为无人机相对地面的测高值;
2)在12 m以上:加入Pixhawk内部融合的气压计和GPS信息作为保护,如果检测到激光定高数据相对Pixhawk内部相对高度数据值偏离超过2 m即判定激光数据异常,则自动切换到Pixhawk内部气压计和GPS信号融合的定高数据。
-
考虑到在低空区域更多关注无人机集群相对地面的高度,针对激光定高数据面对地面变化时抖动大容易引起飞行控制环路产生过调节现象或者震荡反馈等问题,给出了一种时域滤波方法:
$${\rm H}{{\rm F}_n} = {\rm H}{{\rm F}_{n - 1}} + S ({\rm H}{{\rm L}_{n - 1}} - {\rm H}{{\rm F}_{n - 1}})$$ (3) 式中,
${\rm H}{{\rm F}_n}$ 为$n$ 时刻待求的无人机期望高度;${\rm H}{{\rm F}_{n{\rm{ - }}1}}$ 为$n{\rm{ - }}1$ 时刻已知的无人机期望高度;${\rm H}{{\rm L}_{n - 1}}$ 为$n{\rm{ - }}1$ 时刻的激光雷达数据。$S$ 定义为滤波补偿项:$$S = \dfrac{R}{{\left(R + {2^{ - \frac{{\Delta {\rm H}{{\rm L}_{n - 1}}}}{{\Delta d}}}}\right)}}$$ (4) 式中,
$R$ 为实可变参数的阻力因子,$R$ 值越小,平滑滤波效果越明显;${\dfrac{{\Delta {\rm{H}}{{\rm{L}}_{n - 1}}}}{{\Delta d}}}$ 表示$n{\rm{ - }}1$ 时刻激光定高数据相对于水平位移的变化斜率。该滤波器可以有效过滤中小型坑洼和树木造成的激光数据突变,5.1节实验部分将进行具体分析与说明。 -
考虑到异构无人机编队采用的是主−从结构,且视觉传感器搭载在主机上。因此,编队采用了一字型方案,主机在前,从机跟随排列,从而提供更可靠和宽阔的视觉输入信息。考虑到GPS误差等因素,设定单个飞机水平安全防碰撞区域为2.5 m,机间水平方向间隔保持5 m。垂直地面方向考虑有激光传感器,定位精度相对较高,设定单个飞机垂直安全防碰撞区域为2 m,考虑到气流气压等因素,机间垂直方向安全距离为4 m。
-
结合“无人争锋”比赛的实验试飞场地,编队穿越飞行测试流程如下:1)无人机编队利用机载地面站发布起飞指令后,一字型编队飞行到各个门框障碍附近并搜索门框目标;2)利用主机的单目相机和LiDAR激光等传感器实现障碍目标定位,解算穿越点的空间坐标和穿越航向角,并分配各个无人机的穿越路线;3)利用地面站软件将最终航点下发到其他从机,无人机编队进行穿越障碍并向下一个障碍区域编队飞行;4)依次完成4个门框的穿越任务,返回起飞点完成安全降落。
此外,利用4.2节中的保护策略和pixhawk中的故障保护设计,一旦发生主机丢失、坠毁等严重事故,从机将自动切换一键返航,达到减小机群损失的目的。
-
针对4.2.2节的滤波器,仿真中对两种地形进行模拟与分析:1) 具有连续坑洼和树木的地形,在该类地形条件下,通常希望滤波器能过滤激烈的数据抖动,保持平稳飞行。2) 具有台阶特征的地形,在该类地形条件下,通常希望无人机能保持和地面的相对高度,并在台阶处作平滑上升动作,减少激烈的陡然攀升动作。
模拟飞行高度相对于地面为5 m,设定气压计噪声为标准差0.20、方差1、均值0的高斯噪声;激光噪声为标准差0.01、方差1、均值0的高斯噪声;在不同阻力因子
$R$ 下的仿真激光数据的滤波输出结果如图4所示。由图4a可得到,随着
$R$ 的减小,过滤效果越来越明显,且相比于缓慢变化的气压计定高,利用激光相对定高数据更具稳定性。由图4b可以得,随着$R$ 的减小,通过陡变平台的平滑效果越来越明显,平滑过渡防止了无人机控制环路过高的调节量,既节约了能源,其飞行过程也更加安全平稳。 -
考虑到无人机飞行测试成本,首先在室内设计按比例缩小的门框障碍,利用机载单目相机离线测试视觉定位算法可靠性。相较于室内,室外环境更多地受到光照和成像质量的影响。本文在户外实验中还原了比赛场地障碍设置并进行了实际测量,该门框障碍高2.4 m,宽7.2 m。室内和室外的测试效果如图5和图6所示。
因研究背景是无人机集群穿越障碍,将问题转换为寻找合适的障碍穿越角度,其中定义
${\rm{angle}}$ 角为门框法线方向与门框中点和镜头连线的夹角,即该时刻无人机应该选择的穿越航向角。分别进行的20次室内、室外仿真测试中,穿越角度平均误差分别为0.85°和1.87°,满足无人机集群的穿越条件。 -
利用ROS (robot operating system)系统的Rviz仿真工具进行了无人机编队飞行逻辑验证。其可视化的特点方便分析飞行逻辑,图7和图8给出了编队飞行逻辑示意图和Rviz下的仿真轨迹,红点为随机出现的门框障碍区域,黄点为主机,黑点为从机。
-
在完成无人机的LiDAR激光传感器调试、单目相机与云台测试、集群离线仿真编队验证后,旋翼机编队在正式的测试场地进行了完整的穿越障碍飞行测试。表1为测试飞行场地中4个障碍门框区域(障碍门将在该区域附近随机出现)的经纬度数据以及门框法线相对于正北顺时针朝向的角度数据。
表 1 障碍穿越区域中心坐标信息
编号 经度/(°) 纬度/(°) 角度/(°) 1号 115.7002671 39.5348501 91 2号 115.7028676 39.5349498 92 3号 115.7033090 39.5360343 270 4号 115.6997289 39.5358178 270 旋翼机需要完成对目标障碍进行搜索、识别、编队穿越。图9和图10展示了编号不同区域,主机获取的视觉第一视角。图11和图12展示了不同位置观测到无人机编队穿越门框障碍的瞬间。
可以看出,2号门附近地面平坦整洁,1号门附近树木坑洼较多。在不同的光照条件、地形条件下,无人机集群均能稳定地识别、估计定位并穿越障碍目标。
表2给出了比赛场地测试的穿越次数、穿越航向角与成功率的相关实验数据。
表 2 外场实机编队穿越实验数据
序号 次数 成功率/% 平均穿越航向角/(°) 1号门 7 71.0 4.02 2号门 8 87.5 −1.94 3号门 6 83.3 2.28 4号门 5 60.0 −3.51 在条件允许的情况下尽可能多的在4个区域进行了编队穿越障碍测试。通过表2可以看出,由于各个穿越区地形特点与测试难度不同,飞行成功率也存在差异。其中,2号门区域地面平坦、环境简单的特点提高了其穿越成功率。1、4号门地面坑洼,树木繁多,且该区域飞行时测试时出现磁罗盘误差较大,因此穿越成功率有所下降。总体来说,在实机编队穿越测验中穿越总体成功率达到77%左右,说明该技术具备可行性和进一步研究的价值。
Heterogeneous Micro Air Vehicles Formation Crossing Obstacles Based on Vision-Aided Navigation
-
摘要: 该文基于单目视觉定位方法和LiDAR激光测高滤波算法,结合主−从式无人机编队策略,提出了一种低精度GPS条件下多传感器融合的小旋翼无人机编队穿越障碍技术。通过对该旋翼机编队系统的硬件架构、传感器分配、机载自组织网络以及机载编队地面站软件接口等关键模块的设计,最终搭建了一套完整的旋翼机编队测试平台。在完成视觉定位算法、激光数据时域滤波、ROS下编队飞行等仿真验证的基础上,进行了室外测试场地实机编队飞行测试,并利用该技术实现了对多组随机位置的门框类障碍的编队穿越、在线路径规划、一键式起飞返航等编队飞行任务,验证了该技术在室外复杂飞行环境中的可行性。Abstract: In this paper, a multi-sensor fusion technology for micro air vehicle formation crossing obstacles under low-precision GPS conditions is proposed based on the monocular vision positioning method, altimetry filter algorithm based on LiDAR, and the leading-following formation strategy of micro air vehicle. For verifying this technology, a complete set of the micro air vehicle formation test platform was established through the design of key modules such as the hardware architecture of the system, sensor distribution, airborne self-organizing network, and the software interface of the airborne formation ground station. The actual formation flying test of the outdoor test site was conducted on the base of the simulation verification of the visual positioning algorithm, time-domain filtering of laser data, and formation flying under the robot operating system. Finally, formation flying missions such as formation flying across multiple groups of door frame obstacles at random positions, online path planning, and one-key take-off and return were realized using this technology, verifying the feasibility of the technology in the outdoor complex flight environment.
-
表 1 障碍穿越区域中心坐标信息
编号 经度/(°) 纬度/(°) 角度/(°) 1号 115.7002671 39.5348501 91 2号 115.7028676 39.5349498 92 3号 115.7033090 39.5360343 270 4号 115.6997289 39.5358178 270 表 2 外场实机编队穿越实验数据
序号 次数 成功率/% 平均穿越航向角/(°) 1号门 7 71.0 4.02 2号门 8 87.5 −1.94 3号门 6 83.3 2.28 4号门 5 60.0 −3.51 -
[1] YANG Zhi-yuan, DUAN Hai-bin, FAN Yan-ming, et al. Unmanned aerial vehicle formation controller design via the behavior mechanism in wild geese based on Levy flight pigeon-inspired optimization[J]. Scientia Sinica Technologica, 2018, 48(2): 161-169. doi: 10.1360/N092017-00127 [2] CHIARAMONTI M, MENGALI G. Control laws for a formation of autonomous flight vehicles[J]. Aeronautical Journal, 2016, 113(1147): 609-616. [3] GAO Tian-han, LANG Fan, GUO Nan. An emergency communication system based on UAV-assisted self-organizing network[C]//2016 10th International Conference on Innovative Mobile and Internet Services in Ubiquitous Computing (IMIS). [S.l.]: IEEE, 2016: DOI: 10.1109/IMIS.2016.132. [4] SHARMA V, KUMAR R. A cooperative network framework for Multi-UAV guided ground Ad Hoc networks[J]. Journal of Intelligent & Robotic Systems, 2015, 77(3-4): 629-652. [5] GU Yu, GROSS J N, RHUDY M B, et al. A fault-tolerant multiple sensor fusion approach applied to UAV attitude estimation[EB/OL]. [2020-11-12]. https://doi.org/10.1155/2016/6217428. [6] HAUSMAN K, WEISS S, BROCKERS R, et al. Self-calibrating multi-sensor fusion with probabilistic measurement validation for seamless sensor switching on a UAV[C]//IEEE International Conference on Robotics and Automation (ICRA). [S.l.]: IEEE, 2016: DOI: 10.1109/ICRA.2016.7487626. [7] 吕科, 施泽南, 李一鹏. 微型无人机视觉定位与环境建模研究[J]. 电子科技大学学报, 2017, 46(3): 543-548. doi: 10.3969/j.issn.1001-0548.2017.03.011 LÜ Ke, SHI Ze-nan, LI Yi-peng. Visual localization and environment mapping for micro aerial vehicles[J]. Journal of University of Electronic Science and Technology of China, 2017, 46(3): 543-548. doi: 10.3969/j.issn.1001-0548.2017.03.011 [8] SUZUKI T, INOUE D, AMANO Y. Robust UAV position and attitude estimation using multiple GNSS receivers for laser-based 3D mapping[C]//2019 IEEE/RSJ International Conference on Intelligent Robots and Systems (IROS). [S.l.]: IEEE, 2019: DOI: 10.1109/IROS40897.2019.8967894. [9] LIU Xiao-mei, GE S S, GOH C H. Vision-based leader−follower formation control of multiagents with visibility constraints[J]. IEEE Transactions on Control Systems Technology, 2019, 27(3): 1326-1333. doi: 10.1109/TCST.2018.2790966 [10] DAS A K, FIERRO R, KUMAR V, et al. A vision-based formation control framework[J]. IEEE Transactions on Robotics and Automation, 2002, 18(5): 813-825. doi: 10.1109/TRA.2002.803463 [11] AMEDEO V, GIANCARMINE F, DOMENICO A, et al. Differential GNSS and vision-based tracking to improve navigation performance in cooperative multi-uav systems[J]. Sensors, 2016, 16(12): 2164. doi: 10.3390/s16122164 [12] MA Li-li, HOVAKIMYAN N. Cooperative target tracking in balanced circular formation: Multiple UAVs tracking a ground vehicle[C]//IEEE 2013 American Control Conference (ACC). Washington DC: IEEE, 2013: DOI: 10.1109/ACC.2013.6580679. [13] NÄGELI T, CONTE C, DOMAHIDI A, et al. Environment-independent formation flight for micro aerial vehicles[C]//2014 IEEE/RSJ International Conference on Intelligent Robots and Systems. [S.l.]: IEEE, 2014: 1141-1146. [14] NETO A, ROMERO R. A decentralized approach to drone formation based on leader-follower technique[C]//Anais do VII Simpósio Brasileiro de Robótica e XVI Simpósio Latino Americano de Robótica. [S.l.]: SBC, 2019: 357-361. [15] NEALE C M U, MALTESE A, MANDLBURGER G, et al. Complementing airborne laser bathymetry with UAV-based lidar for capturing alluvial landscapes[C]//Spie Remote Sensing. Toulouse, France: [s.n.], 2015: 96370A. [16] RAMASAMY S, SABATINI R, GARDI A, et al. LIDAR obstacle warning and avoidance system for unmanned aerial vehicle sense-and-avoid[J]. Aerospace Science and Technology, 2016, DOI: 10.1016/j.ast.2016.05.020. [17] CHEN Chen, XIONG Guang-ming, ZHANG Zhe-hua, et al. 3D LiDAR-GPS/IMU Calibration based on hand-eye calibration model for unmanned vehicle[C]//2020 3rd International Conference on Unmanned Systems (ICUS). [S.l.]: IEEE, 2020: DOI: 10.1109/ICUS50048.2020.9274947. [18] LOIANNO G, BRUNNER C, MCGRATH G, et al. Estimation, control, and planning for aggressive flight with a small quadrotor with a single camera and IMU[J]. IEEE Robotics & Automation Letters, 2017, 2(2): 404-411. [19] SANKET N J, DEEP S C, KANISHKA G, et al. GapFlyt: Active vision based minimalist structure-less gap detection for quadrotor flight[J]. IEEE Robotics and Automation Letters, 2018, 3(4): 2799-2806. doi: 10.1109/LRA.2018.2843445 [20] ZHANG Xu-pei, MA Zhong, HE Zhan-zhuang, et al. Vision-based UAV obstacle avoidance algorithm on the embedded platform[C]//2019 International Conference on Unmanned Systems and Artificial Intelligence (ICUSAI). Xi'an: IEEE, 2019: DOI: 10.1109/ICUSAI47366.2019.9124868.