打造 “CPU+” 异构计算平台,Arm 灵活应对各类 AI 工作负载
对于人工智能 (AI) 而言,任何单一硬件或计算组件都无法成为适合各类工作负载的万能解决方案。AI 贯穿从云端到边缘侧的整个现代计算领域,为了满足不同的 AI 用例和需求,一个可以灵活使用 CPU、GPU 和 NPU 等不同计算引擎的异构计算平台必不可少。
依托于 Arm CPU 的性能、能效、普及性、易于编程性和灵活性,从小型的嵌入式设备到大型的数据中心,Arm CPU 已经为各种平台上的 AI 加速奠定了基础。
就灵活性而言,这对生态系统大有裨益的三个主要原因是,首先,Arm CPU 可以处理广泛的 AI 推理用例,其中许多用例通常用于数十亿台设备,例如当今的智能 手机 、云和数据中心。不仅如此,除了推理之外,CPU 还经常用于技术栈中的数据预处理和编排等其他任务。其次,开发者能够在更多种类的数据格式中运行更广泛的软件,而无需构建多个版本的代码。最后,CPU 的灵活性使之成为加速 AI 工作负载的理想工具。
提供多样性和选择,助力行业灵活部署 AI 计算
除了 CPU 产品组合外,Arm 计算平台还包括 GPU 和 NPU 等 AI 加速器技术,许多市场都在将这些技术与 CPU 进行集成。
在移动端领域,Arm 终端计算子系统 (CSS) 包含 Armv9.2 CPU 集群,并与 Arm Immortalis-G925 GPU 集成,可为各种 AI 用例提供加速功能,包括图像分割、对象检测、自然语言处理和语音转文本等用例。在物联网 (IoT) 方面,Arm Ethos-U85 NPU 可与需要加速 AI 性能的基于 Arm Cortex-A 的系统一起设计,例如工厂自动化等场景。
此外,除了 Arm 自己的加速器技术外,合作伙伴借助 Arm 的 CPU 灵活定制具有差异化的芯片解决方案。例如,NVIDIA 用于 AI 基础设施的 Grace Blackwell 和 Grace Hopper 超级芯片均采用了 Arm CPU 和 NVIDIA 的 AI 加速器技术,从而显著提升 AI 性能。
NVIDIA Grace Blackwell 超级芯片将 NVIDIA 的 Blackwell GPU 架构与基于 Arm Neoverse 的 Grace CPU 相结合。Arm 独特的产品组合使 NVIDIA 能够进行系统级设计优化,与 NVIDIA H100 GPU 相比,其能耗降低了 25 倍,单个 GPU 性能提高了 30 倍。具体来说,得益于 Arm Neoverse 平台的灵活性,NVIDIA 能够实现自有的高带宽 NVLink 互连技术,并提升 CPU、GPU 和内存之间的数据带宽和延迟。
Arm 致力于通过 Arm 全面设计生态项目,为整个生态系统注入 AI 加速的机遇。通过该生态项目,开发者可以更快访问 Arm CSS 技术,赋能软硬件技术进步,以此驱动 AI 和芯片创新,并加快开发和部署 AI 优化的芯片解决方案。
Arm 架构满足 AI 所需的独特灵活性
Arm CPU 设计所具有灵活性关键在于 Arm 领先的架构。它提供了一个可以与 AI 加速器技术紧密集成的基础平台,并支持从 128 位到 2,048 位的各种向量长度,可以在许多不同的数据点上轻松执行多个神经网络。
Arm 架构的灵活性为整个芯片生态系统提供了多样化的定制机会,Arm 一直致力于帮助合作伙伴更快地构建自己的差异化芯片解决方案。这种独特的灵活性也使 Arm 能够不断进行架构创新,定期推出关键指令和功能来加速 AI 计算,进而惠及整个生态系统,其中包括领先的芯片合作伙伴,以及在 Arm 计算平台上构建应用的 2,000 多万软件开发者等。
这一切始于 Armv7 架构,该架构引入了高级单指令多数据 (SIMD) 扩展,例如 Neon 技术,这是 Arm 首次涉足机器学习 (ML) 工作负载。在过去几年中,该架构不断增强,Armv8 中增加了向量点积和矩阵乘法特性,之后在 Armv9 中又引入了 Arm SVE2 和新的 Arm SME 技术,为广泛的生成式 AI 工作负载和用例提高了计算性能并降低了功耗。
与 AI 加速器技术无缝集成
Arm 是 AI 时代的计算平台,推动了持续的架构创新,以满足速度更快、互动性更好和沉浸感更强的 AI 应用的发展。Arm CPU 作为灵活处理 AI 工作负载的异构计算方法中的一部分,可以无缝增强和集成 GPU 和 NPU 等 AI 加速器技术。
Arm CPU 是处理众多 AI 推理工作负载的实用之选,凭借出色的灵活性,它能够与加速器技术无缝集成,打造更强大、更高性能的 AI 功能,精准满足特定用例和计算需求。对于 Arm 的技术合作伙伴而言,出色的灵活性有助于实现丰富的定制选择,使他们能够为 AI 工作负载构建完整的芯片解决方案。