華為宣布開源盤古7B稠密和72B混合專家模型
MoneyDJ新聞 2025-06-30 11:14:47 記者 新聞中心 報導 綜合陸媒報導,華為(Huawei)今(30)日正式宣布開源盤古70億參數的稠密模型、盤古Pro MoE 720億參數的混合專家模型,以及基於昇騰的模型推理技術。
華為表示,此舉是公司踐行昇騰生態戰略的又一關鍵舉措,以推動大模型技術的研究與創新發展,並加速推進人工智慧在千百行業的應用與價值創造。
此外,華為亦指出,盤古Pro MoE 72B模型權重、基礎推理代碼,以及基於昇騰的超大規模MoE模型推理代碼,均已正式上線開源平台;盤古7B相關模型權重與推理代碼則將於近期上線開源平台。
|
|
|
|