IT之家 2 月 12 日消息,非營利人工智能研究機(jī)構(gòu) Epoch AI 發(fā)布了一項(xiàng)針對 ChatGPT 能耗的新研究,指出其能耗水平可能遠(yuǎn)低于此前的普遍認(rèn)知。
此前,一個被廣泛引用的數(shù)據(jù)顯示,ChatGPT 回答一個問題需要消耗約 3 瓦時的電量,這一數(shù)字是谷歌搜索的 10 倍。然而,Epoch AI 的研究人員認(rèn)為這一數(shù)據(jù)被高估了。通過分析 OpenAI 最新的默認(rèn)模型 GPT-4o,Epoch AI 發(fā)現(xiàn),ChatGPT 的平均查詢能耗約為 0.3 瓦時,低于許多家用電器的能耗水平。
Epoch AI 的數(shù)據(jù)分析師約書亞?尤(Joshua You)在接受 TechCrunch 采訪時表示:“與使用普通電器、調(diào)節(jié)室內(nèi)溫度或駕駛汽車相比,ChatGPT 的能耗并不算什么。”
IT之家注意到,隨著 AI 行業(yè)的快速發(fā)展,其能耗問題和對環(huán)境的影響成為公眾關(guān)注的焦點(diǎn)。就在上周,超過 100 個組織聯(lián)合發(fā)表公開信,呼吁 AI 行業(yè)和監(jiān)管機(jī)構(gòu)確保新的 AI 數(shù)據(jù)中心不會過度消耗自然資源,避免依賴不可再生能源。
約書亞?尤指出,他之所以開展這項(xiàng)分析,是因?yàn)榇饲暗难芯看嬖谶^時的問題。例如,得出 3 瓦時能耗估計的研究報告假設(shè) OpenAI 使用的是較老、效率較低的芯片來運(yùn)行其模型。尤表示:“我看到很多公眾討論都正確地認(rèn)識到 AI 在未來幾年將消耗大量能源,但并沒有準(zhǔn)確描述當(dāng)前 AI 的能耗情況。此外,我的一些同事注意到,每次查詢耗電 3 瓦時的估算數(shù)據(jù)是基于較舊的研究,而且從初步計算來看,這一數(shù)字似乎過高?!?/p>
盡管 Epoch AI 的 0.3 瓦時數(shù)據(jù)是一個估算值,因?yàn)?OpenAI 尚未公布足夠的細(xì)節(jié)來進(jìn)行精確計算,但這一研究仍然具有重要意義。此外,該分析并未考慮 ChatGPT 的圖像生成或輸入處理等額外功能所消耗的電量。尤也承認(rèn),帶有長文件附件等“長輸入”的 ChatGPT 查詢可能會比普通問題消耗更多的電量。
不過,尤預(yù)計,ChatGPT 的基礎(chǔ)能耗未來可能會增加。他指出:“AI 將變得更加先進(jìn),訓(xùn)練這些 AI 可能需要更多的能源,未來的 AI 可能會被更頻繁地使用,并且處理更復(fù)雜、更多的任務(wù),而不是像現(xiàn)在人們使用 ChatGPT 這樣?!?/p>
此外,OpenAI 和整個 AI 行業(yè)的關(guān)注點(diǎn)也在向推理模型轉(zhuǎn)移。與 GPT-4o 等能夠近乎即時響應(yīng)的模型不同,推理模型需要花費(fèi)數(shù)秒甚至數(shù)分鐘來“思考”答案,這一過程會消耗更多的計算能力,從而導(dǎo)致更高的能耗。
尤表示:“推理模型將越來越多地承擔(dān)舊模型無法完成的任務(wù),并為此生成更多的數(shù)據(jù),這都需要更多的數(shù)據(jù)中心支持?!北M管 OpenAI 已經(jīng)開始推出更節(jié)能的推理模型,如 o3-mini,但目前來看,這些效率提升似乎不太可能抵消推理模型“思考”過程以及全球 AI 使用量增加所帶來的額外能耗需求。
廣告聲明:文內(nèi)含有的對外跳轉(zhuǎn)鏈接(包括不限于超鏈接、二維碼、口令等形式),用于傳遞更多信息,節(jié)省甄選時間,結(jié)果僅供參考,IT之家所有文章均包含本聲明。