英偉達團隊近日在AI領(lǐng)域投下了一枚震撼彈,他們提出了一種全新的神經(jīng)網(wǎng)絡(luò)架構(gòu)——歸一化Transformer(nGPT)。這一創(chuàng)新架構(gòu)基于超球面(hypersphere)進行表示學(xué)習(xí),為AI領(lǐng)域帶來了新的突破。
相較于傳統(tǒng)的Transformer架構(gòu),nGPT在保持原有精度的同時,直接將大型語言模型(LLM)的訓(xùn)練速度提升了高達20倍。這一顯著的性能提升,無疑將極大地推動AI技術(shù)的發(fā)展和應(yīng)用。
在nGPT中,所有的向量(包括嵌入向量、多層感知機(MLP)向量、注意力矩陣向量以及隱藏狀態(tài)向量)都被歸一化為單位范數(shù)(unit norm)。這一設(shè)計不僅簡化了模型訓(xùn)練過程,還提高了模型的穩(wěn)定性和泛化能力。
英偉達團隊的這一創(chuàng)新成果,無疑為AI領(lǐng)域注入了新的活力。nGPT架構(gòu)的提出,不僅將推動AI技術(shù)的進一步發(fā)展,還將為各種應(yīng)用場景提供更加高效、準確的解決方案。
-
神經(jīng)網(wǎng)絡(luò)
+關(guān)注
關(guān)注
42文章
4814瀏覽量
103657 -
英偉達
+關(guān)注
關(guān)注
22文章
3953瀏覽量
93808 -
Transformer
+關(guān)注
關(guān)注
0文章
151瀏覽量
6522 -
LLM
+關(guān)注
關(guān)注
1文章
325瀏覽量
844
發(fā)布評論請先 登錄
愛立信推出革命性OSS/BSS產(chǎn)品組合
新思科技攜手英偉達加速芯片設(shè)計,提升芯片電子設(shè)計自動化效率
英偉達發(fā)布Nemotron-CC大型AI訓(xùn)練數(shù)據(jù)庫

什么是LLM?LLM在自然語言處理中的應(yīng)用
如何訓(xùn)練自己的LLM模型
LLM和傳統(tǒng)機器學(xué)習(xí)的區(qū)別
端到端InfiniBand網(wǎng)絡(luò)解決LLM訓(xùn)練瓶頸

評論