Socionext联手大阪大学合作开发新型深度学习算法
SoC设计与应用技术领导厂商Socionext Inc.(以下“Socionext”,或“公司”)宣布,联合大阪大学数据能力科学研究所长原教授研究小组共同开发新型深度学习算法,该算法无需制作庞大的数据集,只需通过融合多个模型便可在极度弱光的条件下进行精准检测物体及图像识别。Socionext笹川幸宏先生和大阪大学长原教授在8月23日至28日(英国夏令时间)举办的欧洲计算机视觉国际会议(ECCV 2020)上报告了这一研究成果。
近年来尽管计算机视觉技术取得了飞速发展,但在低照度环境下车载摄像头、安防系统等获取的图像质量仍不理想,图像辨识性能较差。不断提升低照度环境下图像识别性能依旧是目前计算机视觉技术面临的主要课题之一。CVPR2018中一篇名为《Learning to See in the Dark》[1]的论文曾介绍过利用图像传感器的RAW图像数据的深度学习算法,但这种算法需要制作超过200,000张图像和150多万个批注 [2]数据集才能进行端到端学习,既费时又费钱,难以实现 商业 化落地(如下图1)。
图 1 :《 Learning to See in the Dark 》及 RAW 图像识别课题
为解决上述课题,Socionext与大阪大学联合研究团队通过迁移学习(Transfer Learning)和知识蒸馏(Knowledge Distillation)等机器学习方法,提出采用领域自适应(Domain Adaptation)的学习方法,即利用现有数据集来提升目标域模型的性能,具体内容如下(如图2):
(1)使用现有数据集构建推理模型;
(2)通过迁移学习从上述推理模型中提取知识;
(3)利用Glue layer合并模型;
(4)通过知识蒸馏建立并生成模型。
图2:本次开发的领 域适应方法( Domain Adaptation Method )
此外,结合领域自适应方法和物体检测YOLO模型[3],并利用在极端弱光条件下拍摄的RAW图像还可构建“YOLO in the Dark”检测模型。YOLO in the Dark模型可仅通过现有数据集实现对RAW图像的对象检测模型的学习。针对那些通过使用现有YOLO模型,校正图像亮度后仍无法检测到图像的(如下图a),则可以通过直接识别RAW图像确认到物体被正常检测(如下图b)。同时测试结果发现,YOLO in the Dark模型识别处理时所需的处理量约为常规模型组合(如下图c)的一半左右。
图 3 :《 YOLO in the Dark 》效果图
本次利用领域自适应法所开发的“直接识别RAW图像”可不仅应用于极端黑暗条件下的物体检测,还可应用于车载摄像头、安防系统和工业等多个领域。未来,Socionext还计划将该技术整合到公司自主研发的图像信号处理器(ISP)中开发下一代SoC,并基于此类SoC开发全新摄像系统,进一步提升公司产品性能,助力产业再升级。
欧洲计算机视觉国际会议(ECCV 2020)
日期:8月23~28日(英国夏令时间)
地点:线上会议
演讲主题:YOLO in the Dark - Domain Adaptation Method for Merging Multiple Models -
演讲人:Socionext Inc. 笹川幸宏先生 大阪大学 长原教授
注释:
[1]“Learning to See in the Dark” : CVPR2018, Chen et al.
[2] MS COCO dataset as an example
[3] YOLO (You Only Look Once): One of the deep learning object detection methods
关于Socionext
Socionext Inc.是一家全球性创新型企业,其业务内容涉及片上系统(System-on-chip)的设计、研发和销售。公司专注于以消费、 汽车 和工业领域为核心的世界先进技术,不断推动当今多样化应用发展。Socionext集世界一流的专业知识、经验和丰富的IP产品组合,致力于为客户提供高效益的解决方案和客户体验。公司成立于2015年,总部设在日本横滨,并在日本、亚洲、美国和欧洲设有办事处,领导其产品开发和销售。
本新闻稿中提及的所有公司或产品名称均为其各自所有者的商标或注册商标。以上发布的信息为截止发稿时的信息,日后若发生变更,恕不另行通知,敬请谅解。