設(shè)置
  • 日夜間
    隨系統(tǒng)
    淺色
    深色
  • 主題色

Meta 發(fā)布 Megabyte AI 模型抗衡 Transformer:解決后者已知問題、速度提升 4 成

2023/5/30 18:10:31 來源:IT之家 作者:漾仔(實(shí)習(xí)) 責(zé)編:汪淼

IT之家 5 月 30 日消息,近日 Meta 團(tuán)隊(duì)開發(fā)了一款名為 Megabyte 的 AI 模型以抗衡 Transformer,據(jù)稱 Megabyte 解決了 Transformer 模型所面臨的問題,并且在速度上提升了 40%

▲ 圖源 Arxiv

目前 Transformer 在自然語(yǔ)言處理等領(lǐng)域非常流行,但由于其序列數(shù)據(jù)的處理方式是逐步進(jìn)行的,無(wú)法并行化處理,因此訓(xùn)練速度較慢; 難以處理長(zhǎng)序列,因?yàn)槠湓诜聪騻鞑ミ^程中,梯度很容易消失或爆炸;此外,由于需要在每一步保留歷史信息,內(nèi)存消耗較大。

而 Megabyte 模型將輸入和輸出序列劃分為 patch,而不是單個(gè)的 token。這種架構(gòu)使得對(duì)大多數(shù)任務(wù)而言字節(jié)級(jí)別的預(yù)測(cè)相對(duì)容易,例如根據(jù)前幾個(gè)字符預(yù)測(cè)完成的單詞等。這意味著在大型網(wǎng)絡(luò)中可以精簡(jiǎn)字符以提升效率,并且內(nèi)部預(yù)測(cè)可以使用更小的模型進(jìn)行。Megabyte 模型的這種方法解決了當(dāng)今 AI 模型所面臨的訓(xùn)練速度、可靠性及硬件占用比挑戰(zhàn)。

▲ 圖源 Arxiv

此外,在計(jì)算效率方面,相比于等大的 Transformer 和 Linear Transformer,Megabyte 模型在固定模型大小和序列長(zhǎng)度范圍內(nèi)使用更少的 token。因此相對(duì)于 Transformer,Megabyte 模型可以在相同的計(jì)算成本下訓(xùn)練內(nèi)容更豐富、體積更大、性能更好的模型。

目前 Meta 團(tuán)隊(duì)放出了 Megabyte 模型的論文,IT之家小伙伴可以前往查閱。

廣告聲明:文內(nèi)含有的對(duì)外跳轉(zhuǎn)鏈接(包括不限于超鏈接、二維碼、口令等形式),用于傳遞更多信息,節(jié)省甄選時(shí)間,結(jié)果僅供參考,IT之家所有文章均包含本聲明。

相關(guān)文章

關(guān)鍵詞:模型,Megabyte,transformer

軟媒旗下網(wǎng)站: IT之家 最會(huì)買 - 返利返現(xiàn)優(yōu)惠券 iPhone之家 Win7之家 Win10之家 Win11之家

軟媒旗下軟件: 軟媒手機(jī)APP應(yīng)用 魔方 最會(huì)買 要知