解析移动机器人中的视觉算法

雷锋网  •  扫码分享
我是创始人李岩:很抱歉!给自己产品做个广告,点击进来看看。  

现在自动驾驶的汽车已经上路很久,可以自主行走的移动机器人也有越来越多的公司研发完成,更有很多机器人已经在军用或月球火星等危险环境中大展身手。而移动机器人要完全依靠自己在不同环境中顺利移动,那么它需要具备和人的眼睛、大脑、腿类似的功能来实现定位导航、路径规划以及避障。

在移动机器人的工作过程中,这样复杂的系统中需要哪些算法的支持?视觉算法处理的流程是怎样的?视觉跟踪又是如何实现的?不同的硬件(激光雷达、超声波传感器或者单/双目摄像头)对算法的要求有何不同?移动机器人中的算法还有什么局限性?怎样克服?

带着这些问题,我们请到了Segway & Ninebot机器人业务高级架构师兼算法负责人陈子冲先生,为我们讲述机器人究竟是如何观察这个世界的。


嘉宾简介

陈子冲

Segway & Ninebot机器人业务高级架构师兼算法负责人。陈子冲本科毕业于清华大学电子工程系,完成基于DSP的卫星信标机的全套软硬件实现,获本科生校级优秀论文。后在瑞士联邦理工大学深造获得博士学位,其博士课题获得国家优秀自费留学生奖。归国后,加入华为媒体实验室,带领团队成功研发应用于华为手机的实时双目视觉算法。2015年,陈子冲加入Segway Robot项目,致力于机器人导航等视觉感知算法的研发。Segway Robot项目于2016年1月在国际电子消费展(CES)主题演讲上发布,受到包括CNN、福布斯、TechCrunch、Wired等多家国际媒体的关注,并被评为CES最佳机器人之一。

 

活动详情:

时间:2016年8月4日周四下午3点

参与方式: 扫描海报二维码,关注公众号报名参与

解析移动机器人中的视觉算法

随意打赏

移动机器人解析算法视觉算法
提交建议
微信扫一扫,分享给好友吧。