强智慧车辆感测器融合大作战!

2017-11-29 09:49:09 post by microhm

随着有越来越多汽车厂商开始将不同的感测器整合到先进驾驶辅助系统(ADAS)/自动驾驶车辆,他们通常都会认同「感测器融合(sensor fusion)」是高度自动化驾驶安全性的关键。


但不为人知的是,这些厂商所采用的资料──是原始(raw)资料或经过处理的资料? ──细节,以及他们在融合不同种类感测器资料时面临的挑战;如市场研究机构Strategy Analytics汽车市场分析师Ian Riches所言:「目前的感测器融合并没有在原始感测器资料上完成,通常每个感测器都会进行自己的本地处理。」EDA供应商明导国际(Mentor Graphics)将在近日于美国底特律举行的年度SAE World Congress汽车工程师大会上,展示如何将来自不同感测装置──雷达、光达、视觉或超音波…等等─ ─的原始资料即时融合,以实现在感测精确度以及整体系统效益上的大幅提升。

Mentor Graphics正推出名为DRS360的自动驾驶平台,号称能将来自所有系统感测器之未经过滤的资讯直接传送到一个中央处理单元,然后将那些原始感测器资料在各个层级即时进行融合;该公司副总裁暨嵌入式系统部门总经理Glenn Perry接受EE Times采访时,比较了「感测器融合」与「原始资料融合」的不同,指出两者之间存在着「微妙却非常重要的差异」。

2017-11-29_094019.png

一般来说,提供给汽车厂商的感测器是模组化设计,以预先处理资料;Strategy Analytics的Riches解释:「举例来说,从摄影机传送至融合系统的资料并不会是实际的影像资料,而是对影像中重要区域的描述──像是哪里有一条白线、哪里有一辆车、哪里有交通号志…而所有的融合在这时候才以那些较高层级的资料进行。Mentor认为,摆脱各个终端节点使用之感测器模组的预处理微控制器,选用原始资料,能让ADAS/自动驾驶车辆的设计工程师大幅提升即时性能,并降低整体系统成本与复杂度;此外也能利用所有撷取到的感测器资料,为车辆所在环境与驾驶路况建立最高解析度的模型。


为何原始资料融合很困难?

原始资料融合难在哪里? Mentor的Perry表示,首先是每个感测器会产生资料流,而且是以不同的画面更新率、不同的采样率以及间隔时间:「这是一个异步(asynchronous)系统;」其次,不同类型的资料:「需要被统整为一致性的表述(cohesive representation)。」

例如摄影机的原始影像(2D)、光达的点云(point cloud,为3D)以及雷达的ADC输出,这些都必须被融合到符合时间/空间的3D环境图;而第三,如Perry所言,必须要被统整的:「是真正很庞大的资料流。」针对未指明的3D资料集,Mentor还开发了取得专利的演算法,能实现将光达的空间位置资料、来自雷达的车辆速度资料,以及视觉装置的物体侦测资料之融合。

Perry表示,过去在分散式的感测器资料模组中,每个感测器通常会丢弃一大堆资料;但集中化的解决方案采用未过滤之感测器资料,能确保精确度与可靠度的强化;他强调Mentor花费两年的时间进行该平台的开发:「对于系统效益的改善,我们自己都很惊讶──包括延迟的降低与处理性能的增加,都是由原始资料融合的演算法所实现。」


编译:Judith Cheng

文章来源:EET 电子工程专辑


汇聚最新公司新闻,让客户和员工更加了解我们的产品布局,企业的成长历程与梦想,缩短距离,增强沟通与合作;关注行业动态,站在科技前沿,与时代俱进,开拓创新,持久发展。


标签:   智慧车 感测器 sensor-fusion