IT之家 12 月 27 日消息,隨著人工智能的飛速發(fā)展,對(duì)計(jì)算能力的需求也水漲船高。英偉達(dá)的 AI 處理器 H100 目前十分暢銷,然而每塊 H100 的峰值功耗高達(dá) 700 瓦,超過(guò)了普通美國(guó)家庭的平均功耗。隨著大量 H100 被部署,專家預(yù)測(cè),其總功耗將與一座美國(guó)大城市不相上下,甚至超過(guò)一些歐洲小國(guó)。
IT之家注意到,法國(guó)施耐德電氣公司早在去年 10 月就估計(jì),用于 AI 應(yīng)用的數(shù)據(jù)中心的總功耗已經(jīng)與塞浦路斯全國(guó)相當(dāng)。那么,最熱門(mén)的 AI 處理器之一 —— 英偉達(dá)的 H100,功耗究竟幾何?
微軟數(shù)據(jù)中心技術(shù)治理和戰(zhàn)略部門(mén)首席電氣工程師保羅?楚諾克(Paul Churnock)預(yù)測(cè),到 2024 年底,當(dāng)數(shù)百萬(wàn)塊 H100 部署完畢時(shí),其總功耗將超過(guò)美國(guó)亞利桑那州鳳凰城所有家庭的用電量,但仍低于得克薩斯州休斯敦等更大的城市。
楚諾克在領(lǐng)英上發(fā)帖稱:“英偉達(dá)的 H100 GPU 峰值功耗為 700 瓦,按照 61% 的年利用率計(jì)算,相當(dāng)于一個(gè)美國(guó)家庭的平均功耗(假設(shè)每個(gè)家庭 2.51 人)。英偉達(dá)預(yù)計(jì),2024 年 H100 的銷量將在 150 萬(wàn)到 200 萬(wàn)塊之間。按城市居民用電量排名,H100 的總功耗將位居全美第五,僅次于休斯敦,排在鳳凰城之前?!?/p>
按照 61% 的年利用率,每塊 H100 每年將消耗約 3740 千瓦時(shí) (kWh) 的電量。如果英偉達(dá)在 2023 年售出 150 萬(wàn)塊 H100,2024 年售出 200 萬(wàn)塊,到 2024 年底,將有 350 萬(wàn)塊 H100 芯片被部署。這些芯片的總年耗電量將達(dá)到驚人的 130.91 億千瓦時(shí),即 13091.82 吉瓦時(shí) (GWh)。
相比之下,格魯吉亞、立陶宛或危地馬拉等國(guó)家的年均電力消耗也大約為 13092 吉瓦時(shí)。雖然 H100 的功耗令人震驚,但值得注意的是,AI 和高性能計(jì)算 (HPC) GPU 的效率正在不斷提高。因此,雖然英偉達(dá)下一代 Blackwell 架構(gòu)的 B100 芯片的功耗可能會(huì)超過(guò) H100,但它也將提供更高的性能,從而以更少的單位功耗完成更多工作。
隨著 AI 技術(shù)的發(fā)展,如何平衡算力與能耗之間的矛盾,將成為未來(lái)亟需解決的重要課題。
廣告聲明:文內(nèi)含有的對(duì)外跳轉(zhuǎn)鏈接(包括不限于超鏈接、二維碼、口令等形式),用于傳遞更多信息,節(jié)省甄選時(shí)間,結(jié)果僅供參考,IT之家所有文章均包含本聲明。