保隆科技发布动态视觉传感器:节约算力资源,面向L4级自动驾驶

亿欧网  •  扫码分享
我是创始人李岩:很抱歉!给自己产品做个广告,点击进来看看。  
保隆科技发布动态视觉传感器:节约算力资源,面向L4级自动驾驶

在谈到阻碍 无人驾驶 技术商业化的几大阻碍时,传感器和算力之间的矛盾关系,往往是各家企业重点讨论的话题。一方面,传感器采集到的信息越全面,越有利于车辆决策层来实现驾驶安全。但另一方面,过多的数据会占用计算平台本已“捉襟见肘”的算力资源。这会降低系统的响应速度,无法满足安全驾驶的需求。

日前,上海保隆汽车科技股份有限公司(后文简称“ 保隆科技 ”)举行了“汽车动态视觉与雷达传感器”的产品与技术发布会。会上,包括动态 视觉传感器 、77G及24G毫米波雷达、双目前视系统、红外热成像夜视仪、驾驶员预警系统、车用人脸识别系统等产品都属首次亮相。

保隆科技发布动态视觉传感器:节约算力资源,面向L4级自动驾驶

(传统摄像头与动态视觉传感器的区别)

亿欧汽车注意到,本次保隆科技发布的产品中最具特色的,便是名为“超眼”的动态视觉传感器(DVS)。 在谈到为何要专门研发一款不同于传统摄像头的动态视觉传感器时保隆科技汽车电子单元总监李威表示,车辆在行驶过程中对于外部环境感知的需求和人类大不相同。首先,汽车的行驶速度普遍在60公里/小时以上,最高可达200公里/小时,远高于人类。其次,车辆需要适应各类时间和天气下的环境光,而人眼往往只需适应晴天阳光即可。最后,汽车需要对周围环境进行全方位感知,而人类大多数情况下只需对前方环境进行感知即可。

在李威看来,此前的车用摄像头更像是为了“讨好”人眼而存在。因为这类摄像头往往采集了过多冗余信息,尤其是在环境物体或车辆处于静止状态时。这需要大量算力进行支持,这直接加大了计算平台的压力。

保隆科技发布动态视觉传感器:节约算力资源,面向L4级自动驾驶

(动态视觉传感器产品特点)

相比之下,动态视觉传感器的算法采用了基于事件驱动的模式。一方面,传感器在物体没有变化时,不捕捉其数据。另一方面,系统在对视频和信号进行压缩时,用独特的解码和采样机制过滤掉了背景信息,只输出物体的轮廓数据。同时,结合了毫米波雷达在空间中采集的“锚点”,传感器能够输出车辆周边环境的空间距离信息。

根据介绍,动态视觉传感器能够实现高速运动的物体捕捉、车道线识别、行人目标检测等多项功能。而通过在感知层完成了数据融合与计算,系统能够在大幅节省算力的同时,在物理层输出包括速度、方向和时间戳在内的矢量数据。

保隆科技发布动态视觉传感器:节约算力资源,面向L4级自动驾驶

(海量数据和算力不足已经成为行业普遍痛点)

在谈到动态视觉传感器的应用方向时,产品的芯片提供方芯仑科技向亿欧汽车表示,该技术可以为 自动驾驶 以及ADAS功能带来显著的提升效果。在前向预警功能为例,传统相机在感知层面消耗的时间约为30毫秒,处理数据和输出指令的时间约为100到200毫秒。相比之下,动态视觉传感器的感知时间小于1毫秒,处理数据和输出指令的时间仅为10毫秒,是前者的20倍。该公司称,若以1辆在120公里/小时行驶的乘用车为例,这能够让车辆的刹车距离缩短5米。

根据规划,未来保隆科技将推动动态视觉传感器向L4自动驾驶场景应用。


时值技术大潮汹涌而至,冲击着百年汽车产业随之变革,培育新动能、改造旧动能亟为迫切,在新一轮科技革命和产业变革中,汽车产业中必将形成推动经济社会发展新动力,新技术、新产业、新业态、新模式随之而生。

2019年4月17日,科技出行产业内容服务平台亿欧汽车将主办“新动能时代 · GIIS 2019第二届智能网联产业创新峰会”,与引领汽车行业发展的风向标企业共迎产业新趋势,共创美好生活。

活动链接: https://www.iyiou.com/post/ad/id/781

保隆科技发布动态视觉传感器:节约算力资源,面向L4级自动驾驶

版权声明

本文来源亿欧,经亿欧授权发布,版权归原作者所有。转载或内容合作请点击转载说明,违规转载法律必究。

随意打赏

l4级别无人驾驶视觉传感器制造商固态激光雷达
提交建议
微信扫一扫,分享给好友吧。