人工智能对芯片行业的两个改变:高爆发和非商品化

亿欧网  •  扫码分享
我是创始人李岩:很抱歉!给自己产品做个广告,点击进来看看。  
人工智能对芯片行业的两个改变:高爆发和非商品化

【编者按】 芯片 是实现AI实现智能的当然载体,“无芯片,不AI”。这也使得如今的芯片行业进入到一个高爆发和强竞争的阶段。AI应用落地还有很长的路要走,而对于从业者来讲,当务之急是研究芯片架构问题。

本文转自企业思想家,作者钱馨瑶;经亿欧编辑,供行业人士参考。


从计算的早期开始,人们就一直认为 人工智能 有朝一日会改变这个世界。几十年来,我们已经看到无数流行文化参考和未来主义思想家所描述的未来,但技术本身仍然难以捉摸。增量进步主要归功于边缘学术界和消费性企业研究部门。

这一切都在五年前发生了变化。随着现代深度学习的出现,我们已经看到了这项技术在行动中的真实一瞥:计算机开始看到,听到和谈论。人工智能第一次感觉有形,触手可及。

今天的人工智能开发主要围绕深度学习算法,如卷积网络,循环网络,生成对抗网络,强化学习,胶囊网等。所有这些都有一个共同点,就是它们需要大量的计算能力。为了在推广这种智能方面取得实际进展,我们需要彻底检查为这项技术提供动力的计算系统。

2009年发现 GPU 作为计算设备通常被视为一个关键时刻,帮助引发了围绕深度学习的寒武纪爆发。从那时起,对并行计算架构的投资爆炸式增长。谷歌TPU(Tensor Processing Unit)的兴奋就是一个很好的例子,但TPU才刚刚开始。 CB Insights的发言人告诉我的团队,仅在2017年,新的专用AI芯片创业公司就筹集了15亿美元。这太惊人了。

我们已经看到新的创业公司进入现场,挑战英特尔,AMD,Nvidia,微软,高通,谷歌和IBM等老牌企业。像Graphcore,Nervana,Cerebras,Groq,Vathys,Cambricon,SambaNova Systems和Wave Computing这样的新兴公司正在成为为深度学习的未来铺平道路的新星。虽然这些初创公司肯定资金充足,但这些都是早期的,我们还没有看到谁将成为赢家,将来会有什么样的老卫兵。

Nvidia的统治地位

Nvidia将GPU作为人工智能和深度学习的替代品引入主流。 该公司计算从消费者游戏领导者到AI芯片公司的转变一直都很不错。 就像其对Volta的30亿美元投资以及像CUDA / cuDNN这样的深度学习软件库的推动,它将其从领先地位推向市场主导地位。 去年,它的股票走到了尽头,首席执行官Jensen Huang被“财富”杂志评为年度最佳商人,并因此获得了“新英特尔”的美誉。

但是虽然Nvidia在外观上可能看起来完全不同,但它仍然只是制造了几十年来制作的相同显卡。但GPU作为AI技术的未来尚不确定。批评者认为,GPU已经挤满了20年的不适用于深度学习。 GPU是通用设备,可支持各种应用,包括从物理模拟到电影渲染的所有应用。我们不要忘记,在2009年深度学习中首次使用GPU基本上是一种黑客行为。

ASIC 的兴起

攻击芯片市场的公司正在证明AI将在专用芯片上更快地执行光照。最可能的候选者是ASIC(专用集成电路),它可以高度优化以执行特定任务。

如果您认为芯片是从通用到专用的发展,那么频谱包括一方面的CPU,中间的GPU和FPGA,另一方面包括ASIC。

CPU在执行高度复杂的操作方面非常有效 - 基本上与支持深度学习训练和推理的特定数学类型相反。新进入者正在押注ASIC,因为它们可以在芯片级设计,以处理大量简单的任务。该板可以专用于一组窄函数 - 在这种情况下,稀疏矩阵乘法,具有高度并行性。即使是设计为可编程且因此稍微更加通用化的FPGA,其隐含的多功能性也受到阻碍。

专用AI芯片的性能提升是显而易见的。那么这对更广泛的技术领域意味着什么呢?

未来是非商品化的

相对于CPU而言,GPU已经没有商品化了,而我们所看到的AI芯片投资的巨大增长是GPU最终会被更专业的东西取代。 考虑到Nvidia的存在,英特尔的x86 CPU技术过于普遍化,无法满足对图形密集型应用不断增长的需求,这里有一点讽刺。这一次,英特尔和Nvidia都不会袖手旁观,让创业公司吞噬这个新市场。机会太大了。

可能的情况是,我们会看到Nvidia和英特尔继续大力投资Volta和Nervana(以及他们的继任者)。由于互操作性问题,AMD一直在苦苦挣扎(参见下面的软件部分),但很可能会很快提出可用的东西。微软和谷歌正在与Brainwave和TPU以及许多其他项目合作。然后是所有创业公司。这份名单似乎每周增长,你很难找到一个风险投资基金,该基金没有对至少一个参与者进行过相当大的赌注。

芯片领域的另一个问题是边缘计算,其中推理是直接在设备上计算的,而不是云内环境或公司数据中心。模型可以直接部署在边缘,以满足低延迟要求(移动)或对低功耗,间歇连接设备(嵌入式,物联网)进行预测。最近有几个关于基于边缘的AI加速器的公告,例如Google的Edge TPU。

打开有关未来的问题

芯片领域的任何新人面临的最大挑战可能不是硬件 - 它是软件。 Nvidia凭借CUDA / cuDNN在市场上占有一席之地,CUDA / cuDNN是软件库,构成了位于芯片顶部的必要抽象层,使TensorFlow和PyTorch等框架无需编写复杂的低级指令即可运行。如果没有这些高级库,通常很难从代码的角度来定位芯片。

问题是,CUDA和cuDNN不是开源的。它们是专有包,只能在Nvidia硬件上运行。在开发人员可以利用ASIC之前,提供商需要首先找到一种新方法,使框架可以轻松访问其芯片。如果没有这一点,开发人员将不会采用重要的(如果有的话) - 开发人员只会坚持使用Nvidia,因为它可行。需要有一个等同于CUDA / cuDNN的开源或需要移植到特定ASIC的框架,就像Google对TPU和TensorFlow所做的那样。没有明显的解决方案,这是一个巨大的障碍。

这是什么意思呢?

至少在短期内,我们会看到过多的芯片,一些直接相互竞争,另一些则专注于培训和推理的特定方面。这对行业意味着开发人员会有很多选择。与大规模商品化的CPU市场不同,该行业看起来更像是一个更加多样化,异构化和特定于应用程序的未来。

虽然我们不知道具体结果是什么,但有一点是肯定的:人工智能的未来在于专用ASIC而不是商品硬件。


近年来,粤港澳大湾区在打造创新驱动新引擎,科技创新带动资源集聚等方面着力颇多,创新机制、产业升级、人才引流、协同发展等带来了多方面的机遇。相应的,人工智能、人才赋能正深刻地影响着商业步伐。

2018年10月18-19日,亿欧将在深圳举办 “引擎·引领” 2018大湾区国际科创峰会(BATi) ,集合智能制造、智能产品、智慧城市、智慧安防、智慧交通等一众热点问题展开探讨,分析科技创新未来趋势,盘点技术革命下的发展契机。

报名链接: https://www.iyiou.com/post/ad/id/664

人工智能对芯片行业的两个改变:高爆发和非商品化

随意打赏

人工智能行业研究报告人工智能未来发展趋势华为人工智能芯片ai人工智能芯片搭载人工智能芯片云端人工智能芯片人工智能改变世界人工智能是什么人工智能的发展人工智能行业
提交建议
微信扫一扫,分享给好友吧。