英偉達推出下壹代GH200 Grace Hopper超級芯片平臺
英偉達推出下壹代GH200 Grace Hopper超級芯片平臺,面向加速計算和生成式人工智能時代
全球首款HBM3e處理器提供突破性內存和帶寬;能夠連接多個gpu的卓越性能;易於擴展的服務器設計
NVIDIA宣布推出下壹代NVIDIA GH200 Grace Hopper™平臺,該平臺基於搭載全球首款HBM3e處理器的新型Grace Hopper超級芯片,專為加速計算和生成式人工智能時代而打造。
新平臺旨在處理世界上最復雜的生成式人工智能工作負載,涵蓋大型語言模型、推薦系統和矢量數據庫,可用於各種配置。
雙配置——提供比當前壹代產品多3.5倍的內存容量和3倍的帶寬——包括壹臺帶有144個Arm Neoverse內核的服務器,每秒8千萬億次的人工智能性能和282GB的最新HBM3e內存技術。
英偉達創始人兼首席執行官黃仁勛表示:“為了滿足對生成式人工智能不斷增長的需求,數據中心需要滿足特殊需求的加速計算平臺。新的GH200 Grace Hopper超級芯片平臺提供了卓越的內存技術和帶寬,以提高吞吐量,將gpu連接到聚合性能而不妥協的能力,以及可以輕松部署在整個數據中心的服務器設計。”
新平臺使用Grace Hopper超級芯片,該芯片可與NVIDIA NVLink™的其他超級芯片連接,使它們能夠協同工作,部署用於生成式人工智能的巨型模型。這種高速、連貫的技術使GPU能夠完全訪問CPU內存,在雙配置時提供1.2TB的快速內存。
HBM3e內存比目前的HBM3快50%,提供總計10TB鱷秒的綜合帶寬,使新平臺能夠運行比以前版本大3.5倍的模型,同時提高性能,內存帶寬提高3倍。
對Grace Hopper的需求不斷增長
領先的制造商已經提供基於先前宣布的Grace Hopper超級芯片的系統。為了推動這項技術的廣泛采用,下壹代具有HBM3e的Grace Hopper超級芯片平臺與今年早些時候在COMPUTEX上公布的NVIDIA MGX™服務器規範完全兼容。使用MGX,任何系統制造商都可以快速且經濟高效地將Grace Hopper添加到100多個服務器變體中。
可用性
領先的系統制造商預計將在2024年第二季度交付基於該平臺的系統。