設(shè)置
  • 日夜間
    隨系統(tǒng)
    淺色
    深色
  • 主題色

英偉達新 nGPT 架構(gòu)撬動 AI 未來:超球面學習提效,訓練模型時間可縮短至 1/20

2024/10/22 9:46:42 來源:IT之家 作者:故淵 責編:故淵

IT之家 10 月 22 日消息,科技媒體 dataconomy 昨日(10 月 21 日)發(fā)布博文,報道稱英偉達在訓練 AI 模型方面取得重大突破,發(fā)布了最新的 Normalized Transformer(nGPT)新架構(gòu),保持模型的穩(wěn)定性和準確性的前提下,可以將訓練 AI 時間縮短至 1/4 或者 1/20。

nGPT 架構(gòu)提升效率的秘訣在于“超球面學習”(Hyperspherical learning)這個概念。

傳統(tǒng)的變換器模型通常缺乏一致的幾何框架,而 nGPT 通過將嵌入、注意力矩陣和隱藏狀態(tài)等關(guān)鍵組件映射到超球面表面,確保模型各層在訓練過程中保持平衡。

這種幾何結(jié)構(gòu)有助于創(chuàng)造更穩(wěn)定高效的學習過程:

  • 減少訓練步驟:nGPT 不再直接對模型權(quán)重應(yīng)用權(quán)重衰減,而是依賴學習到的縮放參數(shù),優(yōu)化模型在訓練中的調(diào)整方式。

  • 簡化過程:此方法消除了對 LayerNorm 或 RMSNorm 等歸一化技術(shù)的需求,使訓練過程更為簡單和快速。

英偉達團隊使用 OpenWebText 數(shù)據(jù)集進行測試,nGPT 在速度和效率上均優(yōu)于傳統(tǒng)的 GPT 模型。對于長達 4000 個 tokens 的文本輸入,nGPT 所需的訓練輪次遠少于傳統(tǒng)模型,顯著縮短了訓練時間。

nGPT 的一個關(guān)鍵優(yōu)勢是將歸一化(normalization)和表示學習(representation learning)結(jié)合成一個統(tǒng)一框架,這種設(shè)計簡化了模型架構(gòu),便于擴展和適應(yīng)更復雜的混合系統(tǒng)。未來,nGPT 的方法可能被整合進其他類型的模型和架構(gòu),從而開發(fā)出更強大的 AI 系統(tǒng)。

IT之家附上參考地址

廣告聲明:文內(nèi)含有的對外跳轉(zhuǎn)鏈接(包括不限于超鏈接、二維碼、口令等形式),用于傳遞更多信息,節(jié)省甄選時間,結(jié)果僅供參考,IT之家所有文章均包含本聲明。

相關(guān)文章

關(guān)鍵詞:英偉達AI

軟媒旗下網(wǎng)站: IT之家 最會買 - 返利返現(xiàn)優(yōu)惠券 iPhone之家 Win7之家 Win10之家 Win11之家

軟媒旗下軟件: 軟媒手機APP應(yīng)用 魔方 最會買 要知