NVIDIA Grace Hopper™ 超级芯片通过 NVIDIA® NVLink®-C2C 技术将 Grace 和 Hopper 架构相结合,为加速 AI 和高性能计算 (HPC) 应用提供 CPU+GPU 相结合的一致内存模型。
NVIDIA Grace CPU
专为解决全球最富挑战的计算难题
AI 模型的复杂性和规模都在爆炸式增长,因为它们增强了包含数十 TB 数据的深度推荐系统,改进了具有数千亿参数的对话式人工智能,并实现了科学发现。扩展这些大型模型需要使用新架构,以便快速访问大型内存池,并紧密耦合 CPU 和 GPU。NVIDIA Grace™ CPU 提供高性能、节能高效和高带宽的连接,可用于各种配置,以满足不同的数据中心需求。
借助 NVIDIA Grace Hopper Superchip 提高推荐系统准确性。
NVIDIA Grace Hopper™ 超级芯片通过 NVIDIA® NVLink®-C2C 技术将 Grace 和 Hopper 架构相结合,为加速 AI 和高性能计算 (HPC) 应用提供 CPU+GPU 相结合的一致内存模型。
NVIDIA Grace CPU 超级芯片采用 NVLink-C2C 技术,可提供 144 个 Arm® Neoverse V2 核心和 1 TB/s 的内存带宽。
适用于数字孪生、AI 和高性能计算的系统设计。
适用于数字孪生和 NVIDIA Omniverse™。
NVIDIA Grace CPU Superchip
NVIDIA GPUs
NVIDIA BlueField®-3
适用于 HPC。
NVIDIA Grace CPU Superchip
NVIDIA BlueField-3
OEM 定义的输入/输出 (IO)
适用于 AI 训练、推理和 HPC。
NVIDIA Grace Hopper Superchip
NVIDIA BlueField-3
OEM 定义的 IO/第四代 NVLink
解决重大的 AI 和 HPC 问题需要高容量和高带宽内存 (HBM)。第四代 NVIDIA NVLink-C2C 可在 NVIDIA Grace CPU 和 NVIDIA GPU 之间提供 900 GB/s 的双向带宽。此项互连技术可提供统一、缓存一致性的内存地址空间,后者将系统和 HBM GPU 显存相结合,能够简化可编程性。CPU 和 GPU 之间这种一致、高带宽的连接是加速解决未来复杂问题的关键。
NVIDIA Grace 是率先通过纠错码 (ECC) 等机制,利用具有服务器级可靠性的 LPDDR5X 内存来满足数据中心需求的服务器 CPU,其内存带宽为当今常规服务器内存的 2 倍,能效更是高达后者的 10 倍。NVIDIA Grace LPDDR5X 解决方案与大型高性能最后一级缓存相结合,为超大模型提供必要的带宽,同时降低系统功耗,以更大限度提高其处理新一代工作负载的性能。
随着 GPU 并行计算能力的不断提高,系统仍然可以通过在 CPU 上运行的序列任务来控制工作负载。快速高效的 CPU 是系统设计的关键组件,可以更大限度地加速工作负载。NVIDIA Grace CPU 集成了 Arm Neoverse V2 核心,能够以节能高效的设计实现高性能,使科学家和研究人员更轻松地开展其毕生事业。
借助 NVIDIA Grace Hopper Superchip 提高推荐系统准确性。