「雷神」超级芯片登场,英伟达与其它AI芯片公司的算力差距再次扩大

雷锋网  •  扫码分享
我是创始人李岩:很抱歉!给自己产品做个广告,点击进来看看。  

2022年又是英伟达在AI加速计算赛道里飞速狂奔的一年,进一步拉大了与追赶者的差距。

先是今年3月发布了性能有数量级飞跃的Hopper架构GPU H100。今天,英伟达CEO黄仁勋在GTC 2022上宣布H100全面量产。但根据美国政府的最新规定,未经许可,英伟达不能出口、转让H100 GPU在中国市场上使用。

对此, 黄仁勋在GTC 2022期间回应,英伟达会推出一个不受限制的H100版本,同时会寻求许可证,当然,即便有限制,英伟达广泛的产品线也能够满足客户的绝大多数的需求。

不过,秋季GTC更值得关注的是 史诗级的超级芯片DRIVE Thor(雷神) ,这款最新的超级计算机将于2025年上市,AI性能高达2000TOPS的DRIVE Thor SoC将可能变革智能汽车行业。

当然,黄仁勋也不忘用超强的AI算力普惠包括医疗和工业在内的边缘计算领域,推出了基于英伟达IGX边缘AI计算平台及解决方案。

另外,黄仁勋还更新了曾吸引了无数关注的英伟达Jetson Nano,最新推出的Jetson Orin Nano相比上一代实现了80倍的性能飞跃,价格维持在比较亲民的199美元起。

如果说春季GTC 2022的 H100 GPU树立了高性能AI芯片的新标杆,那秋季GTC的无疑会让自动驾驶芯片和边缘AI芯片的追赶者们感受到了压力。

黄仁勋也给游戏玩家带来了值得兴奋的新一代GeForce RTX 40系列GPU( RTX 40系显卡GTC「炸场」发布,性能提升70%,价格再创新高 )。

「雷神」超级芯片登场,英伟达与其它AI芯片公司的算力差距再次扩大

看起来, 从云端到边缘端,从现实世界到元宇宙,英伟达都想通过创新保持一骑绝尘。

史诗级汽车SoC平台雷神

大算力汽车芯片已经成为趋势, 但作为领导者,英伟达在2022年给出了一个让人惊艳的产品Thor(雷神)。

「雷神」超级芯片登场,英伟达与其它AI芯片公司的算力差距再次扩大

全新Thor超级芯片可提供每秒2,000万亿次浮点运算性能, 取代了DRIVE发展路线图中的Atlan, 能够与目前被用于量产汽车、可提供每秒254万亿次浮点运算性能的DRIVE Orin无缝衔接。

「雷神」超级芯片登场,英伟达与其它AI芯片公司的算力差距再次扩大

对于为什么用Thor取代Atlan更改发展路线图,黄仁勋也做出了解释:“Atlan是已经商用的Orin的下一代产品,是几年前的项目, 但因为出现了令人不可思议的Hopper、AdaGPU和Grace GPU,我们不愿意为此再等两年,于是决定用Thor取代Atlan,并集成了最新的技术,有了Thor超级芯片。

英伟达Thor的强大之处在于,一个基于Thor芯片的系统可以完成所有工作的计算机取代目前汽车内的单独计算机,利用具有广泛隔离(包括 MIG)的功能安全设计技术来防止单独的任务相互干扰。

目前,想要实现汽车中的主动安全、停车、驾驶员监测、摄像头后视镜、集群和车载信息娱乐系统等功能通常需要不同的计算机提供支持。

英伟达正在引领自动驾驶新的未来,也就是由在中央计算机上运行的软件统一提供支持,并随着时间的推移不断改进。

「雷神」超级芯片登场,英伟达与其它AI芯片公司的算力差距再次扩大

据黄仁勋介绍,基于Thor芯片的系统可以将智能汽车的所有功能都集中在单个AI计算机上,“ 车载计算资源的集中化可以将成本降低数百美元 ”。

具体来看,DRIVE Thor平台集Hopper的Transformer Engine、基于Ada的GPU和Grace CPU于一身。

基于新的架构和引擎,Thor芯片具有8位浮点 (FP8) 功能,凭借着8位浮点 (FP8) 的精度,Thor芯片为汽车引入了一种新的数据处理方式。

传统意义上,AV(自动驾驶车辆)仿真平台的开发人员需要从32位浮点转移到8位整数数据格式,而FP8精度简化了这种过渡, 让开发人员可以在不牺牲精度的情况下进行数据传输。

另外,英伟达还推出了NVLink‑C2C技术,该技术可以同时连接两个Thor芯片,使两个芯片成为单一操作系统的单片平台。NVLink‑C2C的优势在于共享和调度,它可以使用最小的算力成本进行跨链路分配工作。

在软件定义汽车的发展趋势下,NVLink‑C2C技术为汽车提供了足够大的算力冗余来保证软件配置的灵活性,并为智能汽车未来的OTA做好了算力方面的保障。

医疗和工业领域也有了通用边缘AI方案

智能汽车是AI边缘最火热的应用,但英伟达的目标是推动AI在所有边缘应用中的应用。

GTC 2022上,英伟达推出了 新的边缘AI计算平台IGX平台 ,IGX平台由NVIDIA IGX Orin超级计算机驱动,能更简便的为制造、物流、医疗等安全敏感行业带来了安全的工作环境。

NVIDIA IGX平台同时包含软件堆栈,可以针对不同的应用场景进行编程和配置,这些软件功能允许用户在仓库、手术室等需要人类与机器人协同工作的场景下提供主动安全用例。

黄仁勋说,“这将是世界上最强大、紧凑、节能的人工智能超级计算机。”

对于AI芯片而言,全栈软件的重要性更加突显。NVIDIA IGX平台也能够运行NVIDIA AI Enterprise软件,优化开发和部署人工智能工作流程并保证开发者能够顺利访问必要的人工智能框架和工具。

英伟达表示,其将与Canonical、红帽和SUSE等伙伴合作,为IGX平台带来长期的全栈支持。

另外,用户可以通过NVIDIA Fleet Command在中央云部署安全的无线软件和系统更新,方便快捷地管理工业或医疗环境中的IGX平台。

过去,边缘AI在制造、物流等行业中一般采用定制方案。但这些定制方案通常昂贵且缺少通用性,需要专为特定用例构建。

为了能够让AI能在这些领域更好运用,IGX平台则能够提供可编程的一站式解决方案, 英伟达推出了面向工业和医疗的IGX一站式解决方案。

“随着人类与机器人的协作场景不断丰富,各行各业都在为机器人、人工智能和计算制定新的安全标准。”黄仁勋说,“NVIDIA IGX将帮助企业构建下一代由软件定义的工业和医疗设备,并在与人协作的环境中安全运行。”

在制造和物流领域,IGX可以用来构建安全、可靠的自动化平台,从而改进人机协作关系,提高生产效率。

目前的生产机器人几乎都内置了反应性安全功能,即在安全威胁和事件发生后做出反应。比如有人走进了机器人的行进路线,机器人会减速或者停下。

IGX平台能够使生产安全性更上一层楼 ,不仅能够增强机器人现有的反应性安全功能,还能利用AI传感器识别潜在的安全隐患并发出警报,从而减少事故。

例如当仓库中的摄像头看到有人进入机器人的路径后可以向机器人发出信号改变路径,从而并避免碰撞,并同时提醒该区域的所有员工和机器人。

据悉,英伟达已经与制造领域巨头西门子达成合作,在边缘部署IGX平台。

在医疗领域,IGX则能够解决传感器、手术辅助机器人、患者检测系统等临床医疗仪器对算力的要求。

「雷神」超级芯片登场,英伟达与其它AI芯片公司的算力差距再次扩大

IGX能够支持NVIDIA Clara Holoscan的运行,允许医疗设备开发人员连接边缘、本地和云服务,并快速的开发由软件定义的设备,将最新的AI成功直接带入手术室。

英伟达IGX的医疗解决方案也已经有合作伙伴,三家领先的医疗设备初创公司Activ Surgical, Moon Surgical and Proximie与英伟达合作,使用在IGX上运行的NVIDIA Clara Holoscan计算平台为其手术机器人系统提供算力。

对于IGX在更广泛边缘AI场景的落地和应用,英伟达表示凌华科技、研华、Dedicated Computing、控创、丽台、MBX、Onyx、Portwell、Prodrive、Technologies和YUAN将率先为医疗设备行业构建基于NVIDIA IGX的产品。

明年,英伟达将向开发者提供IGX Orin开发工具包, 以让企业快速测试原型产品。每个套件都集成用于高性能AI计算的GPU与CPU以及NVIDIA ConnectX-7 SmartNIC,以提供低延迟、高安全性的网络。

80倍性能提升,入门级AI系统售价199美元起

2019年GTC,英伟达推出了售价99美元的机器人芯片Jetson Nano,给业界带来了新的选择,也将产品线拓展到了入门级AI。

今天,黄仁勋带来了Jetson产品线的成员——Jetson Orin Nano系统级模块。值得注意的是,相较上一代Jetson Nano产品, Jetson Orin Nano性能达到上一代产品80倍,售价为199美元起, 为入门级别AI和机器人技术树立了新标准,将于明年1月出货。

「雷神」超级芯片登场,英伟达与其它AI芯片公司的算力差距再次扩大

推出的Orin Nano芯片是Jetson中尺寸最小的,但能够 提供每秒10万亿次操作的AI性能。

雷峰网 (公众号:雷峰网) 了解到,Jetson Orin采用了NVIDIA Ampere架构GPU、Arm架构的CPU,并支持下一代深度学习和视觉加速器、高速接口、高速内存带宽和多模式传感器。

Jetson Orin Nano将提供两个版本,高配版本具有8G内存,提供40TOPS算力,功率可在7W至15W之间配置,低配版本具有4G 内存,能够提供20TOPS算力,功率可低至5-10W。

Jetson Orin Nano的目标是让零售分析、工业质量控制等领域中使用入门级设备和应用程序的开发人员能够以更低的成本访问复杂的AI模型,这当然也需要生态的支持。

据悉, Jetson生态系统如今正在迅猛发展, 目前为止已有超过100万名开发人员、6000多客户、2000家初创公司和150家合作伙伴加入该是生态。

Jetson Orin也已经得到了佳能、约翰迪尔、微软Azure、泰瑞达、TK电梯等合作伙伴的支持。

黄仁勋表示,Jetson Orin平台旨在解决最棘手的机器人挑战,并未超过700000名ROS开发人员带来加速计算。

从云端到边缘,在英伟达触达的AI市场,既有不断迭代的强大硬件,也有不断丰富的软件生态,挑战者想要成功的难度都非常大。

雷峰网原创文章,未经授权禁止转载。详情见 转载须知

随意打赏

提交建议
微信扫一扫,分享给好友吧。