【简介】
NVIDIA正式宣布推出全新的HGX H200,这一人工智能计算平台为全球领先的应用程序提供动力。该平台基于Hopper架构,搭载H200 Tensor Core GPU,并配备先进内存,可处理海量数据,助力生成式AI和HPC工作负载的卓越性能。
【核心内容】
HGX H200是全新的AI计算平台,为全球领先的应用程序提供动力。H200是首款采用HBM3e内存的GPU,速度和容量上实现了重大突破。H200可加速生成式AI和大型语言模型,同时推动HPC工作负载的科学计算。HGX H200提供高达141GB的内存,每秒可处理4.8TB的数据。Hopper架构实现了前所未有的性能飞跃,通过持续的软件增强功能性能标准持续提升。HGX H200外形规格方面,具有四路和八路配置,与HGX H100系统的硬件和软件兼容。全球服务器制造商合作伙伴生态系统可以使用H200来更新其现有系统,云服务提供商将成为首批部署基于H200的实例的云服务提供商。HGX H200采用NVIDIA NVLink™和NVSwitch™高速互连技术,可为各种应用工作负载提供最高性能。NVIDIA还通过全栈软件来加速人工智能的发展,包括用于语音、推荐系统和超大规模推理等工作负载的软件工具。从2024年第二季度开始,NVIDIA H200将向全球系统制造商和云服务提供商开放提供,带来前所未有的机遇。【正文】
今天,NVIDIA正式宣布推出全新的HGX H200,这一强大的人工智能计算平台为全球领先的应用程序提供动力。该平台基于NVIDIA Hopper架构,搭载NVIDIA H200 Tensor Core GPU,并配备先进内存,可处理海量数据,助力生成式AI和HPC工作负载的卓越性能。
H200是首款采用HBM3e内存的GPU,与前代产品相比,HBM3e在速度和容量上均实现了重大突破。这一创新技术可加速生成式AI和大型语言模型,同时推动了HPC工作负载的科学计算。借助HBM3e,H200提供高达141GB的内存,每秒可处理4.8TB的数据。相比之下,与其前身NVIDIA A100相比,容量几乎增加了一倍,带宽提高了2.4倍。
来自全球领先的服务器制造商和云服务提供商的H200驱动系统预计将于2024年第二季度开始出货。届时,无论是本地、云端还是混合云和边缘数据中心,都可以借助这一创新平台实现卓越性能。
NVIDIA副总裁Ian Buck表示:“为了在生成式AI和HPC应用程序中实现智能创新,我们需要借助大型快速GPU内存来高效处理大量数据。借助业界领先的端到端人工智能超级计算平台NVIDIA H200,我们可以更快地解决世界上一些最重要的挑战。”
除了硬件的突破,NVIDIA Hopper架构也实现了前所未有的性能飞跃。通过持续的软件增强功能(如最近发布的NVIDIA TensorRT™-LLM等强大开源库),该架构的性能标准得以持续提升。H200的引入将带来进一步的性能飞跃,包括与H100相比,Llama 2(一个700亿参数的LLM)的推理速度几乎翻了一番。预计H200的其他性能领先优势和改进将在未来的软件更新中实现。
HGX H200外形规格方面,H200将在NVIDIA HGX H200服务器主板中提供,具有四路和八路配置,与HGX H100系统的硬件和软件兼容。此外,它也可以在8月份宣布的带有HBM3e的NVIDIA GH200 Grace Hopper超级芯片中使用。这些选项使得H200可以灵活部署在各种类型的数据中心中。
全球服务器制造商合作伙伴生态系统(包括华擎机架、华硕、戴尔科技、Eviden、技嘉、惠普企业、Ingrays、联想、QCT、Supermicro、纬创和Wiwynn)可以使用H200来更新其现有系统。同时,亚马逊网络服务、谷歌云、微软Azure和甲骨文云基础设施将成为首批从明年开始部署基于H200的实例的云服务提供商,另外还有CoreWeave、Lambda和Vultr等也在名单之列。
HGX H200采用NVIDIA NVLink™和NVSwitch™高速互连技术,可为各种应用工作负载提供最高性能,包括LLM训练和超过1750亿个参数的最大模型的推理。八路HGX H200提供超过32 petaflops的FP8深度学习计算和1.1TB的高带宽内存,在生成式AI和HPC应用中实现最高性能。当与具有超快NVLink-C2C互连的NVIDIA Grace™ CPU搭配使用时,H200创建了具有HBM 3e的GH 200 Grace Hopper超级芯片,HBM 3e是一种旨在为巨型HPC和AI应用提供服务的集成模块。
除了强大的硬件支持,NVIDIA还通过全栈软件来加速人工智能的发展。NVIDIA AI Enterprise软件套件等一系列功能强大的软件工具为开发人员和企业提供了构建和加速从AI到HPC的生产就绪应用程序的支持。这包括用于语音、推荐系统和超大规模推理等工作负载的软件工具。
从2024年第二季度开始,NVIDIA H200将向全球系统制造商和云服务提供商开放提供。这将为各行各业带来前所未有的机遇,通过高效的AI和HPC计算推动创新和业务增长。