借助即將上市的 NVIDIA HGX H200 和配備 HBM3e 內(nèi)存的 MGX Grace Hopper 平臺
Supermicro 通過對 NVIDIA HGX H200 和 Grace Hopper 超級芯片的支持,拓展了 8-GPU、4-GPU 和 MGX 產(chǎn)品線,用于滿足 LLM 應(yīng)用的需求,并搭載了更快、更大容量的 HBM3e 內(nèi)存。創(chuàng)新款 Supermicro 液冷 4U 服務(wù)器搭載了 NVIDIA HGX 8-GPU,使每個機架的計算密度翻倍,高達(dá) 80 千瓦/機架,并降低了總體擁有成本 (TCO)
加利福尼亞州圣何塞和丹佛市2023年11月14日 /美通社/ -- Supercomputing Conference (SC23) - Supermicro, Inc.(納斯達(dá)克股票代碼:SMCI) 作為人工智能、云技術(shù)、存儲和 5G/邊緣整體 IT 解決方案供應(yīng)商,借助對新款內(nèi)置 H200 Tensor Core GPU 的 NVIDIA HGX H200 提供支持,進(jìn)一步拓展其人工智能的產(chǎn)品線。 作為業(yè)界領(lǐng)先的人工智能平臺,Supermicro 涵蓋了 8U 和 4U 通用 GPU 系統(tǒng),可隨時應(yīng)用 HGX H200 8-GPU 和 4-GPU。與 NVIDIA H100 Tensor Core GPU 相比,其具有近 2 倍的容量和 1.4 倍更高帶寬的 HBM3e 內(nèi)存。另外,Supermicro NVIDIA MGX? 系統(tǒng)擁有最豐富的產(chǎn)品組合,并兼容即將推出的搭載 HBM3e 內(nèi)存的 NVIDIA Grace Hopper 超級芯片。憑借其空前的性能、可擴展性和可靠性,Supermicro 的機架規(guī)模人工智能解決方案可在滿足日益增長的模型尺寸需求的同時,快速提升高強度生成式人工智能、大語言模型 (LLM) 訓(xùn)練以及高性能計算應(yīng)用的算力。 借助積木式架構(gòu),Supermicro 能夠快速將新技術(shù)推向市場,讓客戶更快提升生產(chǎn)效率。
Supermicro 充分借助最新的 Supermicro 液冷解決方案,采用液冷 4U 系統(tǒng),并基于 NVIDIA HGX H100 8-GPU 系統(tǒng),推出了業(yè)界最高密度的服務(wù)器。作為業(yè)界最緊湊的高性能 GPU 服務(wù)器,其能夠幫助數(shù)據(jù)中心工作人員減降低對占地面積的需求,并節(jié)約能源成本,同時提供頂級的單機架高性能人工智能訓(xùn)練能力。利用最高密度的 GPU 系統(tǒng),組織可通過采用尖端的液冷解決方案降低其總體擁有成本 。
Supermicro 總裁兼行政總裁 Charles Liang 表示:"Supermicro 與 NVIDIA 攜手設(shè)計了先進(jìn)的系統(tǒng),用于人工智能訓(xùn)練和高性能計算應(yīng)用" 。"借助積木式架構(gòu),我們能夠在市場上率先推出最新科技,讓客戶更迅速地部署生成式人工智能。我們能夠利用全球化生產(chǎn)設(shè)施,更快地向客戶交付這些新系統(tǒng)。新系統(tǒng)采用搭載了 NVIDIA® NVLink? 和 NVSwitch? 高速 GPU-GPU 互聯(lián)技術(shù)(速度高達(dá) 900GB/s)的 NVIDIA H200 GPU,在我們的機架規(guī)模人工智能解決方案中,可為每個節(jié)點提供高達(dá) 1.1TB 的高帶寬 HBM3e 內(nèi)存,以實現(xiàn) LLM 和生成式人工智能的最佳模型并行性能。同時,對于能提供全球最為緊湊的 NVIDIA HGX 8-GPU 液冷服務(wù)器,直接將我們的機架規(guī)模人工智能解決方案密度翻倍,并降低能源成本,為當(dāng)今速度更快的數(shù)據(jù)中心實現(xiàn)綠色計算,我們深感興奮。"
深入了解搭載 NVIDIA GPU 的 Supermicro 服務(wù)器
Supermicro 設(shè)計制造眾多不同外形尺寸的人工智能服務(wù)器。廣受歡迎的 8U 和 4U 通用 GPU 系統(tǒng)搭載了四通道和八通道 NVIDIA HGX H100 GPU,現(xiàn)已支持新款 H200 GPU,可在更短時間內(nèi)完成更大規(guī)模語言模型的訓(xùn)練。每個 NVIDIA H200 GPU 都搭載了 141 GB 內(nèi)存,帶寬高達(dá) 4.8 TB/s。
"Supermicro 即將推出的服務(wù)器設(shè)計采用了 NVIDIA HGX H200,能夠幫助加速生成式人工智能和高性能計算的工作負(fù)載,讓企業(yè)和機構(gòu)能夠充分發(fā)揮其人工智能架構(gòu)的能力," NVIDIA 的高性能計算、人工智能和量子運算數(shù)據(jù)中心產(chǎn)品解決方案總監(jiān) Dion Harris 表示,"搭載高速 HBM3e 內(nèi)存的 NVIDIA H200 GPU 將能夠應(yīng)對各種來自工作負(fù)載的海量數(shù)據(jù)。"
此外,近期推出的 Supermicro MGX 服務(wù)器搭載了 NVIDIA GH200 Grace Hopper 超級芯片,專為整合搭載 HBM3e 內(nèi)存的 NVIDIA H200 GPU 解決方案而設(shè)計。
最新的 NVIDIA GPU 使得加速當(dāng)今和未來的大型語言模型 (LLM) 成為可能,這些模型具有的數(shù)千億的參數(shù)使其能夠適應(yīng)更緊湊、高效的集群,從而在更短時間內(nèi)訓(xùn)練生成式人工智能。此外,其還支持在單個系統(tǒng)中容納多個更大的模型,用于實時 LLM 推理,從而服務(wù)于數(shù)百萬用戶的生成式人工智能。
Supermicro 將在 SC23 上展示其最新產(chǎn)品——配備八通道 NVIDIA HGX H100 及最新的液冷創(chuàng)新技術(shù)的 4U 通用 GPU 系統(tǒng),用于進(jìn)一步提升密度和能效,進(jìn)而推動人工智能的演化。搭配 Supermicro 業(yè)界領(lǐng)先的 GPU 和 CUP 冷卻板、專為綠色計算設(shè)計的 CDU(冷量分配單元)和 CDM(冷量分配歧管),其新款液冷 4U 通用 GPU 系統(tǒng)同樣可搭載八通道 NVIDIA HGX H200,并且,通過 Supermicro全集成的液冷機架解決方案和我們的 L10、L11 和 L12 驗證測試,其能夠大幅降低數(shù)據(jù)中心的體積、削減能源成本并減少部署中的各種阻礙。
如需了解更多信息,敬請蒞臨 Supermicro 在 SC23 上的展位