設置
  • 日夜間
    隨系統(tǒng)
    淺色
    深色
  • 主題色

新型 AI 算法亮相:13W 功率駕馭 10 億參數大語言模型,功率降至常規(guī)配置 1/50、顯存占用降至 1/10

2024/6/27 10:48:10 來源:IT之家 作者:故淵 責編:故淵

IT之家 6 月 27 日消息,美國加州大學圣克魯茲分校的研究團隊研究出新的方法,只需要 13W 的功率(相當于一個現(xiàn)代 LED 燈泡的功率),就能運行 10 億參數規(guī)模的大語言模型。而作為對比,用于大語言模型任務的數據中心級 GPU 需要約 700W。

AI 浪潮下很多公司、機構的研究主方向是應用、推理方面,很少考慮效率等指標。該研究人員為緩解這種狀況,淘汰了矩陣乘法的密集型技術,提出了“三元數”方案,只有負一、零或正一三個數值。

團隊還使用一種名為現(xiàn)場可編程門陣列(FPGA)的高度定制電路創(chuàng)建了定制硬件,讓他們能夠最大限度地利用神經網絡中的所有節(jié)能功能。

在定制硬件上運行時,可以達到與 Meta 的 Llama 等頂級模型相同的性能,但神經網絡功率是常規(guī)配置的五十分之一。

該神經網絡設計還可以用于在人工智能行業(yè)常用的標準 GPU 上運行,測試結果顯示,與基于矩陣乘法的神經網絡相比,顯存占用僅為十分之一。

IT之家附上參考地址

廣告聲明:文內含有的對外跳轉鏈接(包括不限于超鏈接、二維碼、口令等形式),用于傳遞更多信息,節(jié)省甄選時間,結果僅供參考,IT之家所有文章均包含本聲明。

相關文章

關鍵詞:GPUAI,顯存,功率

軟媒旗下網站: IT之家 最會買 - 返利返現(xiàn)優(yōu)惠券 iPhone之家 Win7之家 Win10之家 Win11之家

軟媒旗下軟件: 軟媒手機APP應用 魔方 最會買 要知