MoneyDJ新聞 2025-11-17 17:02:38 新聞中心 發佈
隨著生成式AI與高效能運算(HPC)需求快速成長,資料中心正迎來新一波架構革命。仁寶(2324)今(17)日宣布,將參展Supercomputing Conference 2025(SC25),並展出多款新一代AI伺服器,聚焦NVIDIA Blackwell架構加速平台、記憶體互連創新技術與多樣化散熱方案,展現其在AI世代運算架構轉型中的策略布局。
仁寶指出,本次展出的焦點產品之一SGX30-2為10U機架式旗艦AI伺服器,採用NVIDIA HGX B300 平台打造,並整合雙Intel Xeon 6處理器,共同形成橫跨CPU與GPU的高整合異質運算架構。此平台以NVIDIA Blackwell Ultra GPU為核心,透過第五代NVIDIA NVLink高速互連實現8顆GPU之間的超高頻寬資料交換,同時由Xeon 6提供卓越的多核心處理能力與高速記憶體通道支援。透過雙處理器與GPU之間的深度協同,系統可同時滿足AI訓練、推論與HPC的雙重負載需求,在大規模模型運算中展現出更高的吞吐量與能源效率。
另一亮點SX420-2A,其採用NVIDIA MGX架構,具備4U高密度設計,兼容EIA 19吋與ORv3 21吋機架,可支援多達8張NVIDIA RTX PRO 6000 Blackwell Server Edition GPU。同時提供支援最新高效能網路技術的配置,包括NVIDIA BlueField-3 DPU與NVIDIA ConnectX-8 SuperNIC(內建 PCIe Gen 6 交換器),大幅提升資料中心的連結效能與可擴充性。透過這些整合,SX420-2A能靈活支援AI推論等多樣應用。
在系統層面,仁寶則展示了記憶體擴展與資料流通架構的現場示範。在這個不斷演進的架構中,系統透過周邊元件高速互連(PCIe)介面,在GPU記憶體與儲存層間建立直接資料通道,並結合智慧型直接記憶體存取(DMA)卸載與低延遲資料傳輸設計,使傳統非揮發性記憶體通用介面(NVMe)的儲存區轉化為具記憶體延伸屬性的儲存層,讓資料能以接近動態隨機存取記憶體(DRAM)的速度即時存取,同時有效降低CPU的運算負載。此外,遠端直接記憶體存取(RDMA)技術透過高速互連技術(IB)或RoCE協定,可在伺服器與資料中心節點間直接搬移資料,實現跨節點記憶體共享與彈性資源配置。
仁寶表示,透過這些關鍵技術的整合,將展示AI資料中心的資料流通架構成果,打造出一個統一、可重構且高能效的運算平台,協助資料中心從現有PCIe架構,邁向以GPU直接儲存技術為核心的下一代高效能運算時代,另現場展示亦涵蓋從氣冷、液冷到浸沒式冷卻的多元熱管理方案。
仁寶電腦基礎架構事業群(ISBG)副總經理張耀文表示:「生成式AI與HPC的興起,使資料中心從『運算導向』轉向『資料導向』的架構,而儲存記憶體化(Storage-as-Memory)正是這場轉變的核心。當儲存層能達到記憶體等級的延遲與頻寬時,資料便能在儲存、記憶體與運算層間無縫流動,形成一個統一且可重構的資源池。」