Intel中国研究院宋继强:智能时代的芯片技术演进
雷锋网按:2018年10月11日,纪念集成电路发明60周年学术会议于北京清华大学召开。中国科学院院士王阳元、中国工程院院士许居衍、清华大学教授魏少军等国内半导体行业顶级专业人士纷纷在会上发表了报告或演讲。
其中,Intel中国研究院院长宋继强题为《智能时代的芯片技术演进》的演讲回顾并分析了摩尔定律在60年里的演进,并分析了神经拟态芯片和量子芯片等未来发展方向。雷锋网 (公众号:雷锋网) 对演讲内容做了不改动原意的编辑、整理和精简。
宋继强院长:从人类应用集成电路开始,芯片就一直支撑着整个世界的运转。从最开始帮助我们提高生产率,让我们做事情更快、工作更顺手,到让我们可以在移动中做各种事情,我们手里的设备能够知道我们在哪里、我们是谁,我们的生活产生很大的改变。
现在我们已经进入了一个智能计算的时代,设备不但能够知道我们在哪里、我们是谁,还能通过它的眼睛、耳朵甚至脑袋来了解你。
其实,除了戈登摩尔提出的摩尔定律之外,由戈登贝尔提出的“贝尔定律”在集成电路行业也非常有名。贝尔定律的内容是:计算设备的主流类别大约每隔10年有一次大的变迁,尺寸会有一个数量级的缩小,用户量会至少有一个数量级的增长。
从20世纪70年代到80年代再到90年代,贝尔定律一直准确的与实际状况相吻合;而2007年的iPhone以智能手机的形态和全新的交互方式,通过智能互联设备这一使用模式,使智能手机成为了主流的计算设备。
然而随着计算设备发展到现在,智能计算的时代已经开始,芯片向着小体积、低功耗、无线通信、无线充电的方向发展,可以进入无人驾驶车、智能家居等许多产品中,让整个生活充满智能互联设备。在这样一个万物互联的时代,很可能不会再有单一的主流设备类别。
那么不变的是什么?不变的是这些设备都在采集、传输和处理数据,再通过智能的算法对这些数据进行挖掘和整合,提供更好的价值。芯片做出来是要给用户使用的,Intel的目标是通过芯片提供端到端的数据流动支持,而并非只关注PC芯片领域。
在讲到未来芯片的技术演进之前,我们先来看看过去的10年都发生了那些变化。这些页面的内容,是直接取自Intel三个月前在美国政府ERI(电子复兴计划)峰会上的公开演讲。
首先,在10年之前,Intel曾做过一次路线图预测,包括对新材料、新制程的预估。现在回过头来看,预测中大部分的方向都是没有问题的。在推进摩尔定律的过程中,80%的工作都是基于材料的改革。我们不光要研究怎样把芯片做小,还要研究怎样用不同的方式来做这些器件。另外20%的工作基本上都是在寻求化学工艺方面的进步,如原子层沉积、原子层蚀刻等技术。
经过这么多尝试之后,我们有了很多收获,但同时也发现了很多错误:石墨烯晶体管没有如期出现,许多带有具体日期的预测也都普遍失准,比如“Silicon lattice is ~ 0.5nm,hard to imagine good devices smaller than 10 lattices across – reached in 2020”这句话,实际上想表达的意思是随着工艺越来越小,我们也越来越难以控制和生产半导体芯片,而并非硅半导体工艺将在2020年终结。
从摩尔定律来讲,CMOS的微缩还会继续进行下去,但会通过材料、化学工艺等不同方法来实现,更重要的是,我们还可以通过三维设计将晶体管堆叠起来。除此之外,还有一些新的功能和新的电路控制方式,可以让摩尔定律继续推进下去。
不过仅有这些是不够的,未来的应用种类非常多,我们该如何快速满足不同应用?我们已经进入了7nm时代,制程更迭的速度在变慢,要想快速应对很多种不同的应用,我们需要异构的集成方式,以及AI等新的数据处理算法。
Intel对过去这么多年的一个总结是,我们现在并没有达到物理上的极限,我们已经做出了2nm宽度的晶体管,也做出了5nm宽度的连线,但是只知道把元器件做小还不够,怎样才能在精准的工艺下同时生产百亿千亿个晶体管,这才是最重要的问题。
此外我们还要应对各种各样的变化需求,我们要去了解怎样通过各种集成方式以及各种新架构、新数据处理方式来快速解决这些问题,而不是完全依靠CMOS的微缩技术。摩尔定律还将继续演进,只不过是将以不同的形态、不同的方式往前推进。
如果将Intel过去的研究映射到产品线上,可以看到很多不同节点上的产品,比较直接的例子就是45nm节点时的High-K金属栅极,实际上就是同时利用全新的化学工艺和全新的材料,来制造全新结构的元器件。22nm节点时的3D Finfet晶体管也是同样的例子,我们目前也已经对5nm节点时的晶体管制造有了清楚的认知。
Intel一直在联合产业界及学术界共同追踪半导体工艺的演进,每年都会对半导体器件的性能进行评估。图上的每个点都代表一种新的器件,两个坐标轴分别是功耗和开关性能。我们都希望半导体元器件的表现处于图的左下角,而右上角则是新兴的基于自旋电子的磁器件。磁器件的稳定性和开关速度相比现行的电器件要差,不过从过去几年的趋势来看,我们已经发现了一些提高磁器件开关性能以及优化电路连接的好方法。
同时,通过这些研究,我们可以进一步发现如何更好的在电路中使用晶体管,如何将新式晶体管与新架构、新功能相结合。Intel从统计图上得出的结论是,CMOS目前所处的位置还是很不错的,其功耗和性能表现要优于大部分望半导体元器件。至少在最近的10年里,我们还是要以CMOS为主来制造芯片,其他的新技术可以与CMOS混合使用以提高性能、降低功耗或降低价格。
可能有人会问,为什么有些看起来很好的技术却没能在产业领域获得成功?从Intel对摩尔定律的观点来看,可以用“用户价值三角”来解释这一情况。用户价值三角指出,经济上的效益要强过技术上,也就是说经济的驱动力会更强,Intel在推动摩尔定律的过程中,也通过许多不同的方式来解决经济学效益的问题。
举个例子,我们知道在整个计算机系统的发展过程中,随着CPU速度的快速提升,内存遇到了容量不够大、带宽不够高、延迟不够低等问题。怎么分别解决这些问题呢?其实业界早已弄清降低内存延迟的方法,但是所需的成本非常高,远不如直接提高内存的容量密度,因此从经济学效益来讲,业界最终选择了重点解决容量问题。
另外一方面,3D内存是一项难度很高的技术,在经济学的驱动下,人们最终成功研发出了3D NAND技术和3D XPoint技术。所以与产业界及学术界伙伴合作,可以解决我们遇到的许多技术与经济效益之间的矛盾。
而在之前提到的异构集成方面,Intel也有许多技术成果,我们称其为“混搭”异构设计。我们可以把不同节点上做出的芯片die以2D/2.5D/3D的方式封装起来,保证其互联带宽并降低功耗,这也是Intel持续推动摩尔定律的一项关键技术。
(雷锋网注:此处的混搭异构设计,即为Intel在去年的Hot Chips大会上公布的名为EMIB(Embedded Multi-die Interconnect Bridge,嵌入式多芯片互连桥接)的技术)
我们现在知道,终端设备的多样性已经近在眼前,但终端设备受限于尺寸、功耗、价格,可以发挥的空间不是很大,而环境计算或边缘计算则是可以更好的部署计算能力的场景。同时,目前的云计算规模越来越大,即便其中的一小块的算力都非常强大,哪怕是0.1%的需求也足以支撑一颗定制芯片的研发,因此阿里巴巴和谷歌都在自主研发云计算处理器。
Intel目前正在同时推动这几块内容,这么多种不同的技术一起向前推进,可以为我们带来非常多样性的未来。
从DARPA的曲线来看,我们正处于从第二阶段向第三阶段走的步骤。对于一个智能系统来讲,我们希望其感知能力、学习能力、抽象能力和推理能力都很强,只有这样我们才能认为这是一套真正智能的系统。
但现在我们通过深度学习,只是把系统的感知能力和学习能力提升到比较高的水平,而抽象能力和推理能力甚至还不如上一阶段。DARPA曲线的第三阶段实际上要解决的是如何整合这四方面的能力,通过硬件支撑起这样一套智能系统。
我们举一个现实的例子,刚刚讲的这种集感知、学习、抽象和推理能力于一体的系统,我们称其为“智能自主系统”,这种系统的典型案例就是无人驾驶。无人驾驶系统要能看到环境中的路标,接受各种信号指示;还要能够根据观察到的东西和自身知识来做出行动指导,实时且准确的选择出口、匝道、交叉路口等。
我们可以把这些能力抽象为感知、决策、行动三大类。感知层以多路视觉为主,可能还会有多线3D雷达,因此要求强大的并行计算能力;决策层以感知层处理过的抽象信息为主,需要结合知识和规则做推理,因此需要强大的串行计算能力;而行动层必须在确定的时间点完成执行过程,因此需要强大的实时处理能力。
这三部分需要不分先后的同时工作,而且如果我们希望这一系统具有学习能力和适应能力,还要能够将更多未知的世界状态变为已知。因此想要实现智能计算这一远大目标,我们芯片行业还有许多事情要做。
从已有的思路进行鉴定式的研究,我们认为可重构计算是一项必须要做的事。通用计算和串行计算都可以通过CPU来处理,但并行计算需要有专门的器件来做,以FPGA为例,我们可以通过FPGA实现高度并行运算的硬件加速。因而我们可以通过结合通用和定制硬件来为未来的多样性应用提供加速。
有了这样的硬件基础后,我们还要考虑如何让程序员使用。很多时候新芯片不是死在性能和技术上,而是死在程序员用不好甚至不会用;还要和系统软件对接,让系统可以无缝切换到加速处理器上;最重要的是要有更强的安全性。
而如果跳出之前的渐进式思路,换用变革性的思想来解决智能计算又该怎样?首先要转变计算模式。
传统的计算模式是先画出流程图,再根据流程图编程,这是靠人的思维来解决问题并编写程序,程序员是这一阶段中最大的价值所在;现在我们在做感知任务的时候,程序员已经不知道如何去描述感知计算的过程,也无法画出流程,但我们有大量经过标注的清晰数据,可以通过深度学习模型训练出一套计算过程,在这一阶段,数据科学家和算法工程师身价倍增。
再往前一步,如果想真正像人脑一样搞定感知、学习、抽象和推理等多种计算,我们需要研究神经拟态计算。神经拟态计算可以模仿人的大脑结构,让多种计算过程可以同时进行,并且可以和外界交互,通过观察和反馈来继续学习。
更厉害的是量子计算。量子计算可通过纠缠在一起的量子位来进行高度并发的大量计算,但目前的问题在于量子纠缠的状态极不稳定,计算过程容易出错,我们未来要解决的是量子计算错误率的问题。
在这几个方面,Intel都有相应的工作在进行。先来看一下神经拟态芯片,这是一个非冯·诺依曼架构的芯片,完全把存储和计算单元融合在了一起,模拟了神经元和神经元之间的连接,是一种异步控制的芯片。神经拟态芯片可以在片上进行自学习,支持无监督学习、监督学习、自监督学习和强化学习模式,目前Intel已经有14nm和10nm的神经拟态芯片样片,并在国内大学和企业间开展合作,推动神经拟态芯片的发展。
而在量子计算方面,Intel正在进行两个方向的研究,其一是目前学术界应用比较多的基于超导量子位的传统计算方式,Intel已经在7、17、49三种量子比特节点上进行了大量实验。同时Intel还在观察,当新技术出现后,怎样才能让用户产生非用不可的意愿,是什么阻挡了用户从早期接纳者转变为大众使用者。
这些思考已经超越了芯片技术本身的思考,希望大家与我们一起合作,推进后摩尔定律时代的发展。
。