近日,昆侖萬維公司宣布開源一款名為Skywork-MoE的稀疏大模型,該模型擁有高達2千億參數(shù),不僅性能強勁,而且推理成本更低,為人工智能領(lǐng)域帶來了新的突破。
Skywork-MoE基于昆侖萬維之前開源的Skywork-13B模型進行擴展,是首個完整應(yīng)用并落地的開源千億MoE大模型。MoE(Mixture of Experts)技術(shù)在此模型中得到了充分的應(yīng)用,使得模型在處理復(fù)雜任務(wù)時能夠更加高效和準(zhǔn)確。
值得一提的是,Skywork-MoE還是首個支持用單臺4090服務(wù)器推理的開源千億MoE大模型。這一特性極大地降低了模型的使用門檻,使得更多的企業(yè)和研究機構(gòu)能夠輕松地使用這一強大的模型進行研究和應(yīng)用。
昆侖萬維公司表示,Skywork-MoE的模型權(quán)重和技術(shù)報告將完全開源,并免費提供給商業(yè)使用。這一舉措將極大地推動人工智能領(lǐng)域的發(fā)展,為更多的企業(yè)和研究機構(gòu)提供強大的技術(shù)支持和合作機會。
Skywork-MoE的開源不僅展示了昆侖萬維公司在人工智能領(lǐng)域的技術(shù)實力,也體現(xiàn)了公司對于推動行業(yè)發(fā)展的堅定承諾。未來,我們期待看到更多基于Skywork-MoE的優(yōu)秀應(yīng)用和研究成果的出現(xiàn)。
-
人工智能
+關(guān)注
關(guān)注
1807文章
49029瀏覽量
249694 -
開源
+關(guān)注
關(guān)注
3文章
3690瀏覽量
43841 -
大模型
+關(guān)注
關(guān)注
2文章
3147瀏覽量
4084 -
昆侖萬維
+關(guān)注
關(guān)注
0文章
17瀏覽量
71
發(fā)布評論請先 登錄
華為宣布開源盤古7B稠密和72B混合專家模型
華為正式開源盤古7B稠密和72B混合專家模型
字節(jié)豆包大模型團隊推出UltraMem稀疏架構(gòu)
獵戶星空發(fā)布Orion-MoE 8×7B大模型及AI數(shù)據(jù)寶AirDS
昆侖萬維推出“天工大模型4.0”o1版(Skywork o1)邀請測試
昆侖萬維實時語音對話助手Skyo即將上線
昆侖萬維天工大模型4.0 O1版即將邀測
天工大模型4.0 O1版即將啟動邀測
昆侖萬維天工AI發(fā)布升級版AI高級搜索功能
騰訊發(fā)布開源MoE大語言模型Hunyuan-Large
昆侖萬維發(fā)布全球首個AI流媒體音樂平臺Melodio
PerfXCloud順利接入MOE大模型DeepSeek-V2

評論