类似谷歌AlphaGo的深度神经网络,未来可能通过“片上学习”实现
今年初谷歌AlphaGo与围棋冠军李世石的人机大战,让人们对人工智能的关注度提升到了前所未有的高度,正所谓“外行看热闹、内行看门道”,AlphaGo获胜的背后离不开谷歌开发的深度神经网络,而这正是人工智能机器学习当中重要的组成部分。
AlphaGo在对战时,是采用一种“在线学习”(On-Line Learning)的模式,意思就是说AlphaGo的服务器在美国中西部,通过谷歌云服务连接到韩国首尔的对局室,谷歌总部团队必须确保AlphaGo与谷歌的服务器连接顺利。
,简单讲就是字面所传达的意思,在芯片上进行机器学习。
在了解“片上学习”之前,我们有必要回顾一下计算机的工作结构。
几十年前,美籍匈牙利科学家冯·诺依曼曾提出了以自己名字命名的“冯·诺依曼体系”,这种体系结构下,计算机的指令和数据采用0和1的二进制,处理任务按照固定程序顺序进行,也就是所谓的“串联”。
而人脑处理事情为“并联”模式,人类可以同步处理看到、听到的内容,并且基于人类的“自我学习”能力,完成一次判断。比如,心智正常的人,面对一本杂志与一份报纸,可以在一瞬间分辨出来,这是人类大脑内的视觉图像信息神经元、逻辑思维判断神经元与人类“自我学习”能力,在一瞬间里“并行”作业的结果。
“冯·诺依曼体系”沿用了半个世纪,但在接下来的人工智能时代,计算机需要尽可能地模拟人类大脑神经元和突触处理信息的方式,如视觉、听觉,随后,接受到的信息、图片和声音又能改变神经元之间的联系,这整个过程就是机器学习的过程。
机器学习的过程只有通过神经网络的计算才能实现,为了处理神经网络所带来的指数级数据增长,人们开始研发专门的芯片,才有了后来的“片上学习”。
“片上学习”的进化历程
从全球范围内来看,已有多家公司致力于“在线学习”的算法研究,在视觉、声音、大数据等领域人工智能均有一些落地的案例,相比之下“片上学习”在严苛的硬件环境中依旧研究进展缓慢。
比如IBM的TrueNorth项目,这个以神经形态工程学设计的CMOS芯片,包含了4096个硬件核心,每个核心包含256个可编程的神经元芯片,拥有超过100万的神经元。
在钛媒体创新产品平台“我造社区”当中,有一家名为“西井科技”的神经形态实验室同样致力于此。今年5月份,这家公司宣布研发出了全球首块5000万“神经元”类脑芯片——Westwell Brain,可模拟出5000万级别的“神经元”,总计有50多亿“神经突触”。
作为对比,人类大脑的神经元大约800亿--1000亿个,有5000万个神经元的电脑虽然不能与人类大脑相提并论,但它已经可以实现一些浅层的“片上学习”了,比如分辨画作流派这种事情。
2014年,加州理工大学Sergey Karayev 等人收集了Wiki-paintings画作,以此来检验机器学习的成果。Westwell Brain“片上学习”Wiki系统的测试成绩为1秒自动完成1000多张图片的分类,正确率接近100%。
打个比方,“片上学习”Wiki系统就好像学生身边时刻跟随着一位“私教”,直接在芯片上边学习边测试训练成果,最大的优势是实现“无网络”情况下的“自我学习、自我实时提高”。
而“在线学习”则好比学生定期去“学校”上课,回家后做作业来测试学习效果,再将优化过的模型灌输在硬件中,每一次新的学习都需通过网络、云端等手段重新进行传输、迁移。
因为“片上学习”可以实现本地化学习,从而帮助机器大幅度提升效率,提高运算速度。在网络环境相对严苛或有限的情况下,“片上学习”的芯片消耗的带宽和流量更少,大幅降低云端服务器的通讯成本,且耗时更少。
从技术角度来看,“片上学习”的芯片的确有很多优势,它可以直接在硬件上完成学习与测试,进而让基础算法的研发迭代,产品的升级有着更短的周期和更高的效率,并且消耗更少的能源。
但另一方面,“片上学习”还没有特定的标准,据西井科技相关负责人介绍,全球从事此领域研究的公司仅在个位数,相关从业人员也极为紧缺,如何使用“片上学习”芯片的技术进行具体场景的商业化落地还存在很大挑战。
真极客有钛度,大开脑洞黑科技
更多精彩关注微信号:钛极客(TiGeek)