MoneyDJ新聞 2025-10-16 17:29:19 新聞中心 發佈
全球資料中心面臨AI帶來的新挑戰,在今(2025)年的OCP全球高峰會(OCP Global Summit 2025) 上,仁寶(2324)展示其面向未來資料中心(DC)的完整藍圖,提出涵蓋運算、記憶體與散熱的一站式整合解決方案。仁寶電腦基礎架構事業群副總經理張耀文表示,透過本次完整展示,仁寶展現了從現有基礎架構邁向未來資料中心的明確且務實路徑,彰顯其作為真正系統整合者的角色。
在運算效能方面,仁寶推出最新的SGX30-2 / 10U AI伺服器,採用NVIDIA HGX B300平台打造。該系統以NVIDIA Blackwell架構為基礎,支援多達8顆NVIDIA Blackwell Ultra GPU,透過第五代NVIDIA NVLink相互連接,並搭載雙Intel Xeon 6處理器,專為大規模AI模型訓練、推論與高效能運算應用(HPC)而設計。
NVIDIA Blackwell Ultra GPU採用最新Blackwell架構,提供高達2.1 TB HBM3e記憶體以及1.8 TB/s GPU對GPU的NVLink頻寬,整體互連頻寬達14.4 TB/s,確保低延遲與高速存取大型資料集。其推論效能可達144 PFLOPS(FP4),訓練效能約72 PFLOPS(FP8),較前一代NVIDIA Hopper架構提升達7倍的運算能力。此設計使企業能在單一平台上同時進行高通量訓練與高效率推論,大幅縮短AI模型的開發與部署週期。
仁寶指出,此次展示重點之一,係聚焦於運算快速連結(CXL)與遠端直接記憶體存取(RDMA)技術在AI記憶體擴展上的應用,以因應大型語言模型訓練與高效能運算等工作負載所面臨的龐大記憶體瓶頸。透過CXL.mem協定,伺服器能在同一機架內無縫存取以儲存級記憶體(SCM)為基礎的記憶體擴展模組,使CPU與GPU得以突破高頻寬記憶體(HBM)的限制,在支援快取一致性的架構設計中實現高速協同運算。
在不斷演進的記憶體架構中,系統透過PCIe介面,在GPU記憶體與儲存層之間建立直接資料通道。結合智慧型直接內存訪問(DMA)卸載與低延遲資料傳輸設計,讓傳統固態硬碟(NVMe)儲存得以轉化為具記憶體延伸屬性的儲存層,進一步落實儲存記憶體化概念,使資料能以接近主記憶體的速度即時存取,同時降低CPU的運算負載。此外,遠端直接記憶體存取(RDMA)技術可透過高速互連網路協定(InfiniBand)或乙太網路融合遠端直接記憶體存取(RoCE),在伺服器與資料中心間直接搬移資料,實現大規模記憶體彈性配置與資源共享化,以及跨節點的高速資料流通。
仁寶表示,透過這些關鍵技術的整合,重新定義了AI資料中心的資料流通架構,打造出一個統一、可重構且高能效的基礎設計,協助資料中心從現有的PCIe架構,演進至以GPU直接儲存技術與CXL架構為核心的下一代高效運算平台。
隨著人工智慧應用快速推進與資料中心架構加速轉型,公司表示,將持續深化與生態系夥伴的技術合作,推動運算、記憶體與儲存資源的整合創新,展現面向未來的系統整合實力。張耀文表示,透過本次完整展示,仁寶展現了從現有基礎架構邁向未來資料中心的明確且務實路徑,彰顯其作為真正系統整合者的角色,不僅是技術供應商,更是企業數位轉型旅程中的長期策略夥伴。
(圖片來源:仁寶)