借助即將上市的 NVIDIA HGX H200 和配備 HBM3e 內(nèi)存的 MGX Grace Hopper 平臺(tái)
Supermicro 通過對 NVIDIA HGX H200 和 Grace Hopper 超級(jí)芯片的支持,拓展了 8-GPU、4-GPU 和 MGX 產(chǎn)品線,用于滿足 LLM 應(yīng)用的需求,并搭載了更快、更大容量的 HBM3e 內(nèi)存。創(chuàng)新款 Supermicro 液冷 4U 服務(wù)器搭載了 NVIDIA HGX 8-GPU,使每個(gè)機(jī)架的計(jì)算密度翻倍,高達(dá) 80 千瓦/機(jī)架,并降低了總體擁有成本 (TCO)
加利福尼亞州圣何塞和丹佛市2023年11月14日 /美通社/ -- Supercomputing Conference (SC23) - Supermicro, Inc.(納斯達(dá)克股票代碼:SMCI) 作為人工智能、云技術(shù)、存儲(chǔ)和 5G/邊緣整體 IT 解決方案供應(yīng)商,借助對新款內(nèi)置 H200 Tensor Core GPU 的 NVIDIA HGX H200 提供支持,進(jìn)一步拓展其人工智能的產(chǎn)品線。 作為業(yè)界領(lǐng)先的人工智能平臺(tái),Supermicro 涵蓋了 8U 和 4U 通用 GPU 系統(tǒng),可隨時(shí)應(yīng)用 HGX H200 8-GPU 和 4-GPU。與 NVIDIA H100 Tensor Core GPU 相比,其具有近 2 倍的容量和 1.4 倍更高帶寬的 HBM3e 內(nèi)存。另外,Supermicro NVIDIA MGX? 系統(tǒng)擁有最豐富的產(chǎn)品組合,并兼容即將推出的搭載 HBM3e 內(nèi)存的 NVIDIA Grace Hopper 超級(jí)芯片。憑借其空前的性能、可擴(kuò)展性和可靠性,Supermicro 的機(jī)架規(guī)模人工智能解決方案可在滿足日益增長的模型尺寸需求的同時(shí),快速提升高強(qiáng)度生成式人工智能、大語言模型 (LLM) 訓(xùn)練以及高性能計(jì)算應(yīng)用的算力。 借助積木式架構(gòu),Supermicro 能夠快速將新技術(shù)推向市場,讓客戶更快提升生產(chǎn)效率。
Supermicro 充分借助最新的 Supermicro 液冷解決方案,采用液冷 4U 系統(tǒng),并基于 NVIDIA HGX H100 8-GPU 系統(tǒng),推出了業(yè)界最高密度的服務(wù)器。作為業(yè)界最緊湊的高性能 GPU 服務(wù)器,其能夠幫助數(shù)據(jù)中心工作人員減降低對占地面積的需求,并節(jié)約能源成本,同時(shí)提供頂級(jí)的單機(jī)架高性能人工智能訓(xùn)練能力。利用最高密度的 GPU 系統(tǒng),組織可通過采用尖端的液冷解決方案降低其總體擁有成本 。
Supermicro 總裁兼行政總裁 Charles Liang 表示:"Supermicro 與 NVIDIA 攜手設(shè)計(jì)了先進(jìn)的系統(tǒng),用于人工智能訓(xùn)練和高性能計(jì)算應(yīng)用" 。"借助積木式架構(gòu),我們能夠在市場上率先推出最新科技,讓客戶更迅速地部署生成式人工智能。我們能夠利用全球化生產(chǎn)設(shè)施,更快地向客戶交付這些新系統(tǒng)。新系統(tǒng)采用搭載了 NVIDIA® NVLink? 和 NVSwitch? 高速 GPU-GPU 互聯(lián)技術(shù)(速度高達(dá) 900GB/s)的 NVIDIA H200 GPU,在我們的機(jī)架規(guī)模人工智能解決方案中,可為每個(gè)節(jié)點(diǎn)提供高達(dá) 1.1TB 的高帶寬 HBM3e 內(nèi)存,以實(shí)現(xiàn) LLM 和生成式人工智能的最佳模型并行性能。同時(shí),對于能提供全球最為緊湊的 NVIDIA HGX 8-GPU 液冷服務(wù)器,直接將我們的機(jī)架規(guī)模人工智能解決方案密度翻倍,并降低能源成本,為當(dāng)今速度更快的數(shù)據(jù)中心實(shí)現(xiàn)綠色計(jì)算,我們深感興奮。"
深入了解搭載 NVIDIA GPU 的 Supermicro 服務(wù)器
Supermicro 設(shè)計(jì)制造眾多不同外形尺寸的人工智能服務(wù)器。廣受歡迎的 8U 和 4U 通用 GPU 系統(tǒng)搭載了四通道和八通道 NVIDIA HGX H100 GPU,現(xiàn)已支持新款 H200 GPU,可在更短時(shí)間內(nèi)完成更大規(guī)模語言模型的訓(xùn)練。每個(gè) NVIDIA H200 GPU 都搭載了 141 GB 內(nèi)存,帶寬高達(dá) 4.8 TB/s。
"Supermicro 即將推出的服務(wù)器設(shè)計(jì)采用了 NVIDIA HGX H200,能夠幫助加速生成式人工智能和高性能計(jì)算的工作負(fù)載,讓企業(yè)和機(jī)構(gòu)能夠充分發(fā)揮其人工智能架構(gòu)的能力," NVIDIA 的高性能計(jì)算、人工智能和量子運(yùn)算數(shù)據(jù)中心產(chǎn)品解決方案總監(jiān) Dion Harris 表示,"搭載高速 HBM3e 內(nèi)存的 NVIDIA H200 GPU 將能夠應(yīng)對各種來自工作負(fù)載的海量數(shù)據(jù)。"
此外,近期推出的 Supermicro MGX 服務(wù)器搭載了 NVIDIA GH200 Grace Hopper 超級(jí)芯片,專為整合搭載 HBM3e 內(nèi)存的 NVIDIA H200 GPU 解決方案而設(shè)計(jì)。
最新的 NVIDIA GPU 使得加速當(dāng)今和未來的大型語言模型 (LLM) 成為可能,這些模型具有的數(shù)千億的參數(shù)使其能夠適應(yīng)更緊湊、高效的集群,從而在更短時(shí)間內(nèi)訓(xùn)練生成式人工智能。此外,其還支持在單個(gè)系統(tǒng)中容納多個(gè)更大的模型,用于實(shí)時(shí) LLM 推理,從而服務(wù)于數(shù)百萬用戶的生成式人工智能。
Supermicro 將在 SC23 上展示其最新產(chǎn)品——配備八通道 NVIDIA HGX H100 及最新的液冷創(chuàng)新技術(shù)的 4U 通用 GPU 系統(tǒng),用于進(jìn)一步提升密度和能效,進(jìn)而推動(dòng)人工智能的演化。搭配 Supermicro 業(yè)界領(lǐng)先的 GPU 和 CUP 冷卻板、專為綠色計(jì)算設(shè)計(jì)的 CDU(冷量分配單元)和 CDM(冷量分配歧管),其新款液冷 4U 通用 GPU 系統(tǒng)同樣可搭載八通道 NVIDIA HGX H200,并且,通過 Supermicro全集成的液冷機(jī)架解決方案和我們的 L10、L11 和 L12 驗(yàn)證測試,其能夠大幅降低數(shù)據(jù)中心的體積、削減能源成本并減少部署中的各種阻礙。
如需了解更多信息,敬請蒞臨 Supermicro 在 SC23 上的展位