IT之家 7 月 31 日消息,來自明尼蘇達(dá)大學(xué)雙城校區(qū)的研究團(tuán)隊(duì)最新研制出計(jì)算隨機(jī)存取存儲(chǔ)器(CRAM),可以將 AI 芯片的能耗降至千分之一。
國(guó)際能源機(jī)構(gòu) (IEA) 預(yù)測(cè),AI 的能源消耗將翻一番,2022 年耗電量為 460 太瓦時(shí)(TWh),而在 2026 年耗電量預(yù)估將達(dá)到 1000 太瓦時(shí)。
團(tuán)隊(duì)表示,傳統(tǒng) AI 芯片需要在邏輯(處理)和內(nèi)存(存儲(chǔ))之間不斷傳輸數(shù)據(jù),因此導(dǎo)致耗電量巨大。
而 CRAM 新型存儲(chǔ)器通過將數(shù)據(jù)保存在存儲(chǔ)器內(nèi)進(jìn)行處理來解決這一問題,數(shù)據(jù)無(wú)需離開計(jì)算機(jī)存儲(chǔ)信息的網(wǎng)格,可以完全在內(nèi)存陣列中進(jìn)行處理。
團(tuán)隊(duì)表示和傳統(tǒng)方法相比,基于 CRAM 的機(jī)器學(xué)習(xí)推理加速器能耗可降低至千分之一,甚至在某些場(chǎng)景應(yīng)用下可以達(dá)到 1/1700 或者 1/2500。
該團(tuán)隊(duì)成立于 2003 年,由物理學(xué)、材料科學(xué)、計(jì)算機(jī)科學(xué)和工程學(xué)專家組成,在過去 20 多年來一直開發(fā)該技術(shù)。
該研究以磁性隧道結(jié)(Magnetic Tunnel Junctions,MTJs)相關(guān)專利為基礎(chǔ),而 MTJ 是硬盤、傳感器和其他微電子系統(tǒng)(包括磁隨機(jī)存取存儲(chǔ)器 MRAM)中使用的納米結(jié)構(gòu)器件。
CRAM 架構(gòu)克服了傳統(tǒng)馮-諾依曼架構(gòu)(計(jì)算和內(nèi)存是兩個(gè)獨(dú)立的實(shí)體)的瓶頸,能夠比傳統(tǒng)系統(tǒng)更有效地滿足各種人工智能算法的性能需求。
明尼蘇達(dá)大學(xué)團(tuán)隊(duì)目前正與半導(dǎo)體行業(yè)的領(lǐng)導(dǎo)者合作,擴(kuò)大演示規(guī)模,并生產(chǎn)必要的硬件,以更大規(guī)模地降低人工智能能耗。
IT之家附上參考地址
University of Minnesota device slashes AI energy consumption
Experimental demonstration of magnetic tunnel junction-based computational random-access memory
New memory tech unveiled that reduces AI processing energy requirements by 1,000 times or more
廣告聲明:文內(nèi)含有的對(duì)外跳轉(zhuǎn)鏈接(包括不限于超鏈接、二維碼、口令等形式),用于傳遞更多信息,節(jié)省甄選時(shí)間,結(jié)果僅供參考,IT之家所有文章均包含本聲明。