適用于大規(guī)模AI訓練和推理的一站式數(shù)據(jù)存儲解決方案──數(shù)百PB的多層式解決方案提供能支持可擴充式AI工作負載所需的龐大數(shù)據(jù)容量和高性能數(shù)據(jù)帶寬
Supermicro, Inc.(納斯達克股票代碼:SMCI)作為AI、云端、存儲和5G/邊緣領域的全方位IT解決方案制造商,推出適用于人工智能(AI)和機器學習(ML)數(shù)據(jù)存取的完整優(yōu)化解決方案,覆蓋從數(shù)據(jù)收集到高性能數(shù)據(jù)傳輸的各個環(huán)節(jié)。此全新解決方案能通過將GPU數(shù)據(jù)傳輸管道完全利用使AI價值實現(xiàn)時間最小化。在AI訓練方面,該解決方案可收集、轉換大量PB級原始資料,并加載到企業(yè)AI工作流程管道。這種多層式Supermicro解決方案通過證實可在生產(chǎn)制造環(huán)境中為人工智能運營(AIOps)和機器學習運營(MLOps)提供PB規(guī)模級數(shù)據(jù)量。Supermicro的多機柜級解決方案旨在降低落地風險,讓組織能更快速地訓練模型,并迅速將處理后的數(shù)據(jù)應用到AI推理。
Supermicro總裁兼首席執(zhí)行官梁見后(Charles Liang)表示:“通過由每機柜20 PB高性能快閃存儲容量所驅動并搭載四個專為應用優(yōu)化的NVIDIA HGX H100 8-GPU的氣冷服務器或搭載八個NVIDIA HGX H100 8-GPU的液冷服務器,客戶能以機柜規(guī)模加速AI和ML應用運行。此項解決方案能為每個存儲叢集提供270 GB/s的讀取吞吐量和390萬IOPS做為最低部署,并輕松擴大至數(shù)百PB的規(guī)模。借由使用具有PCIe 5.0與E3.S存儲裝置,以及WEKA Data Platform軟件的最新Supermicro系統(tǒng),這項通過場域測試的機柜級解決方案將可為使用者帶來AI 應用性能的大幅提升。有了此項適用于 AI 訓練的全新存儲解決方案,客戶將能完全發(fā)揮我們最先進GPU服務器機柜級解決方案的使用潛能,進而降低總擁有成本(TCO)并時提高AI性能?!?/p>
為了使GPU有成效地運行,具備低延遲、高帶寬數(shù)據(jù)處理性能的GPU服務器必須要能存取用于大規(guī)模 AI 訓練運行的未結構化PB量級數(shù)據(jù)。Supermicro擁有基于Intel和AMD技術的廣泛存儲服務器產(chǎn)品組合,是AI管道必不可少的要素。這些產(chǎn)品包括Supermicro Petascale All-Flash存儲服務器,其中每部服務器擁有983.04* TB的NVMe Gen 5快閃數(shù)據(jù)容量,可提供高達230 GB/s的讀取帶寬和3,000萬IOPS。本解決方案還包括適用于容量物件層級并具備90個存儲硬盤槽的Supermicro SuperServer存儲服務器。全球客戶已可取得此經(jīng)過測試的完善解決方案并用于ML、GenAI和其他復雜計算的工作負載。
全新存儲解決方案包含:
- All-Flash層級 - Supermicro Petascale Storage Servers
- 應用層級 - Supermicro 8U GPU服務器:AS -8125GS-TNHR 和 SYS-821GE-TNHR
- 物件層級 - Supermicro 90 drive bay 4U SuperStorage Server,運行Quantum ActiveScale物件存儲
- 軟件:WEKA Data Platform和Quantum ActiveScale物件存儲
- 交換機:Supermicro InfiniBand 和以太網(wǎng)絡交換機
WEKA總裁Jonathan Martin表示:“具高性能和高度快閃數(shù)據(jù)容量的Supermicro PB級All-Flash存儲服務器能與WEKA的AI原生數(shù)據(jù)平臺軟件完美互補搭配,并為現(xiàn)今的企業(yè)AI客戶提供空前的速度、規(guī)模和簡易性?!?/p>
Supermicro將在一場網(wǎng)絡研討會中介紹其優(yōu)化存儲架構的更多細節(jié)。若要參加該場于2024年2月1日舉辦的直播網(wǎng)絡研討會,或觀看Supermicro和WEKA的網(wǎng)絡研討會回放。