您的位置:首页 > 资讯 > 无人系统 > 行业资讯 > 正文

无人机的自动避障是采用了什么原理

2019-09-26 17:30 性质:转载 作者:太平洋电脑网 来源:太平洋电脑网
免责声明:无人系统网(www.youuvs.com)尊重合法版权,反对侵权盗版。(凡是我网所转载之文章,文中所有文字内容和图片视频之知识产权均系原作者和机构所有。文章内容观点,与本网无关。如有需要删除,敬请来电商榷!)
技术原理:双目立体视觉(Binocular Stereo Vision)马儿(Marr)的视觉计算理论框架,主要分为三个测算部分:第一部分是早期视觉,拍摄的图像,感知前方物体...

技术原理:双目立体视觉(Binocular Stereo Vision)

马儿(Marr)的视觉计算理论框架,主要分为三个测算部分:

第一部分是早期视觉,拍摄的图像,感知前方物体的位置、方向、表面的纹理、光泽、阴影形状等信息;

第二部分是二维体现,将第一部分收集的信息进行2.5D维度的建模,确立以无人机为中心的坐标轴体系,将画面中的物体的表面以坐标点的形式体现在坐标轴上;

第三部分是三维空间构建,在2.5D维度的建模以后,仍有Z轴数据(物体与无人机距离)无法确定,这时需要用到三角测距的计算原理,通过计算机运算测算出最终位置,建立空间三维模型。

简单来说“双目测距”,就是一个套路的运算,但当中包含了N套的代数方程组,在早期的无人驾驶汽车当中,也运用了该逻辑的运算方式,但由于处理量巨大,汽车上都配备了多台顶级的计算机进行协同运算,才能在短时间内做出精准的判断。

在无人机上,一般的无人机飞控处理器,并不能达到这样的运算速度,而一直在研发手机处理器的厂商(如:英特尔、高通公司),凭借其处理器的低能耗和高性能的特点,成为他们的切入点,像采用英特尔处理器的Yuneec Typhoon H、大疆经纬M100的GUIDANCE配件,以及采用高通骁龙处理器的零度XPLORER 2、腾讯Ying、大疆精灵4等产品。

因为强大的计算能力,实时地绘制出三维环境模型,能够实现更多的智能化优化功能,就像在大疆精灵4上实现了“指点飞行”功能,也是依靠前视障碍传感器构建的三维模型实现此操作,同样在跟随模式下,无人机在跟随可视范围内的任务时,将会更加准确。在自动返航的过程中,自动避障也是相对更加安全,对于以前常常撞墙、撞树、撞山的事,总算有一个比较靠谱的解决方案。

但由于运算量大,运算时,电压会相应增加,能耗也随即增加,续航时间也会相应下降,实现每增加一个避障方向,运算量将增加一倍,但能够绘制出更加清晰的三维模型。在已发布的无人机产品中,定位开发者使用的大疆经纬M100 GUIDANCE配件是能够实现5方向上的自动避障功能,而定位消费级产品的Typhoon H、精灵4,腾讯Ying等无人机,自动避障功能仅支持前方的视觉的检测。

仅前方避障的好处是保证了续航时间和最大程度上实现自动避障功能,毕竟无人机主要也是往前飞行的,而并非说这无人机能够永远不会撞墙,也有其局限性,当在智能跟随模式下,无人机在人的前面进行跟随,人往前走,无人机会向后运动,无人机无法识别背后的障碍物,无人机撞墙的事情也是很可能发生的。

三大自动避障无人机的缺陷

除此以外,在无人机上使用的视觉障碍传感器有一定的使用范围,大疆的精灵4支持0.7 - 15 米的范围,光照条件要在》 15 lux以上,弱光下无效。而零度Xplorer 2则有些不一样,采用激光雷达TOF测距的原理,头顶的“蘑菇头”发射出激光雷达,以每秒50次的速率360°全方位扫描,绘制出3D模型,在暗光条件下很灵敏,对于关照过强时,并不能很好地识别出障碍物距离。而Yuneec Typhoon H使用Intel的Real Sense技术,单目测距+结构光,有效测距可达10米,通过打出的左红外传感器和右红外传感器追踪这束光的位置,同时受限于暗光下使用,也是不敌强光。


网友评论
文明上网,理性发言,拒绝广告

相关资讯

热点资讯
推荐图文

关注官方微信

手机扫码看新闻