Supermicro 利用即將推出的搭載 HBM3e 記憶體的 NVIDIA HGX H200 和 MGX Grace Hopper 平台擴闊人工智能解決方案 – 媒事 看新聞

Supermicro 利用即將推出的搭載 HBM3e 記憶體的 NVIDIA HGX H200 和 MGX Grace Hopper 平台擴闊人工智能解決方案

Supermicro 利用即將推出的搭載 HBM3e 記憶體的 NVIDIA HGX H200 和 MGX Grace Hopper 平台擴闊人工智能解決方案

Supermicro 擴闊 8-GPU、4-GPU 和 MGX 產品線來支援 NVIDIA HGX H200 和 Grace Hopper 超級晶片,為大型語言模型應用程式提供更快更大的 HBM3e 記憶體——搭載 NVIDIA HGX 8-GPU 的 Supermicro 新型創新 4U 液冷伺服器使每機架的計算密度提高了一倍,功率高達每機架 80 千瓦,降低了總體擁有成本 (TCO)

加州聖荷西和丹佛 2023年11月14日 /美通社/ — Supercomputing Conference(簡稱 SC23— Supermicro,Inc.(納斯達克股票代碼:SMCI是一間面向人工智能、雲端計算、儲存和 5G/邊緣的全面 IT 解决方案供應商,即將推出配備 H200 Tensor Core GPU 的全新 NVIDIA HGX H200 產品線,從而擴闊其在人工智能領域的影響力。Supermicro 領先業界的人工智能平台(包括 8U 和 4U 通用型 GPU 系統)均可直接插入 HGX H200 8GPU 和 HGX H200 4GPU,相較於 NVIDIA H100 Tensor Core GPU,HGX H200 的 HBM3e 記憶體容量和頻寬分別提高了近 2 倍和 1.4 倍。此外,Supermicro NVIDIA MGXTM 系統的廣泛產品組合還支援即將推出的搭載 HBM3e 記憶體的 NVIDIA Grace Hopper 超級晶片。憑藉前所未有的效能、可擴展性和可靠性,Supermicro 的機架式人工智能解決方案可加速計算密集型生成式人工智能、大型語言模型 (LLM) 訓練和 HPC 應用程式的效能,同時滿足不斷增長的模型規模發展需求。Supermicro 利用積木式架構,可以快速將新技術推向市場,使客戶能夠盡早提高生產力。

03_2023__4U_8GPU_H200_1080
03_2023__4U_8GPU_H200_1080

Supermicro 還推出了業界密度最高的伺服器,在 4U 液冷系統中搭載 NVIDIA HGX H100 8-GPU 系統,採用最新的 Supermicro 液冷解決方案。這款業界最精巧的高效能 GPU 伺服器,使數據中心營運商能夠减少佔地面積和能源成本,同時在單個機架中提供最高效能的人工智能訓練能力。憑藉密度最高的 GPU 系統,企業可以利用尖端的液冷解決方案降低總體擁有成本。

Supermicro 總裁兼行政總裁 Charles Liang 表示:「Supermicro 與 NVIDIA 合作,為人工智能訓練和 HPC 應用程式設計出最先進的系統。我們的積木式架構使我們能夠率先將最新技術推向市場,讓客戶以前所未有的速度部署生成式人工智能。憑藉我們遍佈全球的生產設施,我們可以更快地向客戶交付這些新系統。新系統採用了 NVIDIA H200 GPU,配備 NVIDIA ® NVLink ™ 和 NVSwitch ™ 高速 GPU 互連(速度為 900GB/s),在我們的機架規模人工智能解決方案中,每個節點可提供高達 1.1TB 的高頻寬 HBM3e 記憶體,為當今的大型語言模型和生成式人工智能提供最高效能的模型並行。我們也很高興能提供世界上最精巧的 NVIDIA HGX 8-GPU 液冷伺服器,它將我們的機架規模人工智能解決方案的密度提高了一倍,同時降低了能源成本,為當今的加速數據中心實現綠色計算。」

進一步了解配備 NVIDIA GPU 的 Supermicro 伺服器

Supermicro 設計並製造了多種不同外形尺寸的人工智能伺服器產品組合。受歡迎的 8U 和 4U 通用型 GPU 系統採用了四路和八路的 NVIDIA HGX H100 GPU ,現在可以直接插入全新 H200 GPU,在更短的時間內訓練更大的語言模型。每個 NVIDIA H200 GPU 包含 141GB 記憶體,頻寬為 4.8 TB/s。

NVIDIA 高效能運算、人工智能及量子計算數據中心產品解決方案總監 Dion Harris 表示:「Supermicro 即將推出的伺服器設計採用了 NVIDIA HGX H200 ,這將有助加速生成式人工智能和高效能運算的工作負載,從而使企業和組織能夠最大限度地利用其人工智能基礎設施。配備高速 HBM3e 記憶體的 NVIDIA H200 GPU 能夠為各種工作負載處理海量數據。

此外,最近推出的搭載 NVIDIA GH200 Grace Hopper 超級晶片的 Supermicro MGX 伺服器也採用了搭載 HBM3e 記憶體的 NVIDIA H200 GPU。

全新 NVIDIA GPU 能夠加速當今和未來的大型語言模型 (LLM),使其在更緊湊、更高效的集群中容納上千億的參數,從而以更短的時間訓練生成式人工智能,同時允許在一個系統中容納多個更大的模型,進行實時 LLM 推理,為數百萬用戶提供生成式人工智能服務。

在 SC23 大會上,Supermicro 展示了最新款的 4U 通用型 GPU 系統,該系統採用八路 NVIDIA HGX H100 及公司最新的液冷創新技術,進一步提高了密度和效率,推動了人工智能的發展。憑藉 Supermicro 領先業界、為綠色計算而設的 GPU 和 CPU 冷板、CDU(冷卻液分配裝置)和 CDM(冷卻液分配歧管),全新的 4U 通用型液冷 GPU 系統亦為八路 NVIDIA HGX H200 做好了準備,透過 Supermicro 完全集成的機架式液冷解決方案和 L10、L11 和 L12 驗證測試,將大幅减少數據中心的佔地面積、電力成本和部署障礙。

如欲了解更多資訊,請蒞臨 SC23 的 Supermicro 展台

關於 Super Micro Computer, Inc.

Supermicro(納斯達克股票代碼:SMCI)為應用最佳化整體 IT 解決方案的全球領導者。Supermicro 的成立據點及營運中心位於美國加州聖荷西,致力為企業、雲端、人工智能和 5G 電信/邊緣 IT 基礎架構提供領先市場的創新技術。我們是一家提供伺服器、人工智能、儲存、物聯網、交換機系統、軟件和支援服務的全方位 IT 解決方案製造商。Supermicro 的主機板、電源和主機殼設計專業知識進一步促進了公司的研發與生產,為全球客戶實現了從雲端到邊緣的下一代創新。我們的產品皆由內部團隊所設計及製造(在美國、亞洲及荷蘭),透過全球化營運提供規模生產及展現絕佳效率,透過最佳化設計,降低整體擁有成本 (TCO),透過先進的綠色運算技術來減少對環境的衝擊。屢獲殊榮的 Server Building Block Solutions® 產品組合,讓客戶可以自由選擇這些具高度彈性、可重複使用且極為多元的建構式組合系統,我們支援各種外形尺寸、處理器、記憶體、GPU、儲存、網絡、電源和散熱解決方案(冷氣、自然冷卻或液冷),因此能為客戶的工作負載與應用提供最佳的效能。

Supermicro、Server Building Block Solutions 和 We Keep IT Green 皆為 Super Micro Computer, Inc. 的商標和/或註冊商標。

所有其他品牌、名稱和商標皆為其各自擁有者之財產。

 

Back To Top