就像苹果公司开发M1芯片一样,英伟达也宣布了自己的基于ARM的CPU Grace。该公司的首个数据中心CPU针对AI超级计算和自然语言处理等大规模数据处理。
据Nvidia称,与基于x86的DGXTM系统相比,配备了Grace的系统可以以10倍的速度学习具有1万亿个参数的自然语言处理NLP模型。 NVLink互连技术支持这种性能改进。通过应用该技术,它可以在Grace CPU和NVIDIA GPU之间提供900GB /秒的吞吐量,据说这是当前主要服务器速度的30倍。此外,通过采用LPDDR5x内存,Grace系统的能效提高了10倍,DDR4 RAM的带宽增加了一倍。
CSCS将在瑞士国家超级计算中心和美国洛斯阿拉莫斯国家研究中心聘用Grace。预计这两家工厂都将在2023年发布配备Grace的系统,并且到此时,采用Grace的系统预计会扩展到其他客户。
Nvidia还宣布了与AWS(Amazon Web Servies)的合作伙伴关系。 NVIDIA GPU与Graviton2一同发布,Graviton2是AMW中基于ARM的CPU。带有NVIDIA GPU的AWS实例不仅可以本地播放Android游戏,还可以将游戏流式传输到移动设备,更快地渲染和编码。
此外,NVIDIA还发布了用于基于ARM的HPC的开发人员工具包。该套件配备了ARM Neoverse 80内核,一个ARM服务器CPU,2个NVIDIA A100 GPU,高级网络和安全性以及存储速度NVIDIA BlueField-2 DPU。
众所周知,高能效的ARM体系结构可与消耗大量电能的数据中心配合使用。继Apple M1在消费PC领域的出现以及基于ARM的产品在数据中心的出现之后,可以说这对Intel构成了新的威胁,Intel的主要重点是x86架构。相关信息可以在这里找到。