MoneyDJ新聞 2025-10-13 17:24:50 新聞中心 發佈
隨著AI運算需求持續攀升、資料中心的能源消耗亦屢創新高,而如何在效能、成本與永續發展間取得平衡,已成為雲端服務供應商與企業面臨的重大挑戰。仁寶(2324)指出,公司將參展2025 OCP全球高峰會(OCP Global Summit 2025),發表其最新資料中心技術藍圖,展示涵蓋AI策略合作、CXL(Compute Express Link,運算快速連結)架構記憶體解決方案,以及先進液冷技術等多項創新成果,全面展現仁寶對未來資料中心基礎架構的前瞻願景。
近年來,伺服器市場的焦點已從單純追求運算效能,轉向更重視能源效率與系統可擴充性。仁寶持續深化與輝達(NVIDIA)的合作,致力於滿足企業對高效能、彈性與能源效益的多重需求,協助加速AI工廠與推論平台的部署,縮短產品上市時程。
仁寶電腦基礎架構事業群副總經理張耀文表示,AI已從概念驗證階段邁入企業數位轉型的核心。我們與輝達的合作聚焦於運算、網路與散熱技術的整合,期能協助客戶打造具備可擴充性與永續性的AI基礎架構。
另外,仁寶亦將展示基於CXL與RDMA(Remote Direct Memory Access,遠端直接記憶體存取)架構下的PCIe(Peripheral Component Interconnect Express)記憶體池化技術,展現新一代資料中心在記憶體擴充、動態資源配置與低延遲互連方面的創新突破。
仁寶指出,公司透過PCIe Gen5(Peripheral Component Interconnect Express,第五代匯流排標準)、NVMe-oF (Non-Volatile Memory Express over Fabrics,跨網路非揮發性記憶體傳輸協定)與CXL Fabric等先進互連技術,實現伺服器節點間的高速資料互通與共享資源池化,進一步整合記憶體與儲存層級,推動儲存記憶體化概念的落實,使資料能以近似主記憶體的速度被即時存取,同時提升系統整體運算效率與可擴展性。展示現場中,將強調多TB級記憶體池化能力與快取一致性技術,讓與會者能親身體驗這些技術如何實現更高效、具彈性且能源優化的 AI 資料中心運算環境。
同時,為因應高效能GPU所帶來的散熱挑戰,仁寶將於本次高峰會發表兩款創新液冷伺服器,分別為「OG720-2A-L2 ORv3 7OU 8x AMD Instinct GPU 直接晶片液冷AI伺服器」與「SG223-2A-I 2U 8x GPU浸沒式液冷伺服器」。這兩款創新解決方案將展現仁寶在高負載運算環境中,如何同時兼顧最佳效能與能源效率,協助資料中心實現pPUE (partial Power Usage Effectiveness)低於1.1的卓越能效表現,為新世代高密度AI與高效能運算(HPC)應用提供可擴充且高效的運算基礎。
(圖片來源:仁寶)