前段時(shí)間離職后留下公開辭職博客的 OpenAI 六年元老 Miles Brundage 最近再發(fā)一文,討論了一個(gè)相當(dāng)熱門但棘手的問題:當(dāng)今的 AI 發(fā)展速度,應(yīng)該加速、減速還是維持現(xiàn)狀?
10 月末,OpenAI 在政策研究領(lǐng)域方面的 6 年元老 Miles Brundage 離職,順便發(fā)表了一篇博文,解釋自己離職的原因,并直言 —— 我們遠(yuǎn)遠(yuǎn)沒有為 AGI 做好準(zhǔn)備。
10 天后,似乎是覺得這篇文章意猶未盡,Brundage 再次發(fā)文,題為「AI 發(fā)展是應(yīng)該加速、放緩,還是保持不變?」
雖然標(biāo)題是問句,導(dǎo)讀的一句話也充滿了不可知論色彩,但文章的結(jié)論非常明確 —— 謹(jǐn)慎起見,我們應(yīng)該為全社會的 AI 發(fā)展安裝一個(gè)「剎車」。
負(fù)責(zé)托管維基百科的 Chris Albon 轉(zhuǎn)發(fā)了這篇博客并大力贊賞,將 Miles Brundage 的內(nèi)容產(chǎn)出與致力于教育領(lǐng)域創(chuàng)業(yè)的 Andrej Karpathy 相提并論。
現(xiàn)在再加上剛離職的 Lilian Weng,不得不說,OpenAI 的「離職潮」大大豐富了高質(zhì)量 AI 博客的創(chuàng)作和產(chǎn)出。
Miles Brundage 本科畢業(yè)于喬治華盛頓大學(xué),本科期間擔(dān)任過美國能源部的特別助理,之后前往亞利桑那州立大學(xué)攻讀博士,研究方向?yàn)榭萍嫉娜祟惡蜕鐣S度,博士后期間曾在牛津大學(xué)擔(dān)任 AI 政策研究員。
2018 年,Miles Brundage 加入了剛剛成立 3 年的 OpenAI 擔(dān)任政策方面的研究科學(xué)家,之后又在 2021 年升任研究主管,目前是 AGI 準(zhǔn)備工作的高級顧問。
當(dāng)今的 AI 發(fā)展
人工智能應(yīng)該更快、更慢還是保持不變?在回答這個(gè)問題之前,我們先簡要回顧一下目前的人工智能進(jìn)步有多快。
2021 年出版的一本書 ——《人工智能簡史》(A Brief History of Artificial Intelligence),其中的觀點(diǎn)在短短 3 年后的今天就已經(jīng)過時(shí)了。
比如書中提到,「理解一個(gè)故事并回答有關(guān)問題」以及「解釋照片中發(fā)生的事情」,這些任務(wù)并沒有完全被 AI 解決;但從 GPT、Claude、o1 等模型中可以看到,這些方面已經(jīng)有了很大的進(jìn)步,甚至很可能超過了人類表現(xiàn)。
舉出這些例子并不是為了特意挑刺或抬杠,而是我們要明白一點(diǎn) —— 嚴(yán)肅的專家經(jīng)常在人工智能領(lǐng)域犯下嚴(yán)重錯(cuò)誤。
雖然某些情況下,人們確實(shí)對人工智能的進(jìn)展過于樂觀,但總體而言,近十年來,堅(jiān)持唱深度學(xué)習(xí)的反調(diào)確實(shí)不是一個(gè)成功的策略。
計(jì)算機(jī)已解決和待解決的問題總覽,按任務(wù)難度排序
另外還有下面這張著名的圖表,告訴我們 AI 的發(fā)展如何讓各種評估基準(zhǔn)越來越快地飽和。
在物理、化學(xué)和編碼等領(lǐng)域的測試問題上,AI 開始超越專家表現(xiàn),例如基本全新的 GPQA 問答基準(zhǔn)(Google-Proof Question Answering),去年 11 月剛剛發(fā)布,現(xiàn)在卻正在被碾壓。
在解決谷歌搜索都無法完成的,孤立的、研究生級別的任務(wù)上,AI 可以比大多數(shù)專家做得更好,即使專家有半個(gè)小時(shí)的時(shí)間來解決問題。
在有挑戰(zhàn)性的推理基準(zhǔn)上,o1 大大超過 GPT-4o
這種最新的進(jìn)展的驅(qū)動力是 AI 系統(tǒng)向新范式的過渡,即所謂的「思維鏈」(chain of thought,CoT),在給出答案之前先思考問題。
GPQA 基準(zhǔn)僅僅是一個(gè)孤立的短期任務(wù),AI 系統(tǒng)在需要花費(fèi)數(shù)小時(shí) / 數(shù)天 / 數(shù)周 / 數(shù)年的「長期」任務(wù)上還無法超越專家,但科技公司正在積極推動這一點(diǎn),并極有可能在 10 年內(nèi)實(shí)現(xiàn)。
這些進(jìn)步開始與機(jī)器人技術(shù)相結(jié)合,真正智能的 AI 系統(tǒng)無疑將大大加速機(jī)器人技術(shù)的發(fā)展。
棘手的問題 ——AI 發(fā)展的理想配速
盡管在我看來,對 AI 進(jìn)步速度的爭議會隨著時(shí)間的推移而減少,但這個(gè)問題目前仍然非常模糊,因?yàn)槟茉诓煌囊?guī)模和層面上控制它,比如單個(gè)公司、一個(gè)國家或一組國家,或全球范圍,也區(qū)分不同類型。
例如去年發(fā)表的一篇文章中,就做出了如下區(qū)分:
人工智能的快速發(fā)展可區(qū)分為橫軸和縱軸:縱軸指的是開發(fā)更大更強(qiáng)的模型,這伴隨著許多未知因素和潛在的人類生存風(fēng)險(xiǎn);相比之下,橫軸強(qiáng)調(diào)將當(dāng)前模型融入經(jīng)濟(jì)的各個(gè)角落,并且風(fēng)險(xiǎn)相對較低,回報(bào)較高。
本文下面的內(nèi)容主要關(guān)注全球范圍內(nèi) AI 在縱軸上的擴(kuò)展 / 進(jìn)步,也就是大多數(shù)人所理解的 AI 進(jìn)步的意思;而且最終我們關(guān)心的是全球成果,因此無論人工智能發(fā)生在哪里,都應(yīng)該考慮它的進(jìn)展。
有些人可能認(rèn)為這是一個(gè)棘手的問題,原因之一是他們認(rèn)為這是對技術(shù)看法的「試金石」,而技術(shù)本身就已經(jīng)是一個(gè)很大的爭議了。
但事實(shí)并非如此。實(shí)際上,有很多人總體上支持技術(shù)發(fā)展,但對人工智能感到擔(dān)憂。
比如,在這份旨在重視 AI 風(fēng)險(xiǎn)的倡議書上,不乏各種大力推動技術(shù)發(fā)展的大佬,比如比爾?蓋茨、前 OpenAI 首席科學(xué)家 Ilya Sutskever、DeepMind 聯(lián)創(chuàng)兼 CEO Demis Hassabis、Anthropic 聯(lián)創(chuàng)兼 CEO Dario Amodei、OpenAI CEO Sam Altman 等人。
原文鏈接:https://www.safe.ai/ work / statement-on-ai-risk
在本文作者 Miles Brundage 看來,AI 發(fā)展的配速之所以成為一個(gè)難題,其真正原因在于,即使大家的出發(fā)點(diǎn)是一個(gè)共同的合理道德前提,例如「不要?dú)⑺浪腥恕购汀父嗟娜?vs. 更少的人應(yīng)該從技術(shù)中受益」,一系列相關(guān)的經(jīng)驗(yàn)問題仍然很難解決。
AI 總體發(fā)展的理想配速可能取決于以下問題的答案,而每個(gè)問題實(shí)際上都可以成為一個(gè)單獨(dú)的領(lǐng)域:
讓功能強(qiáng)大的 AI 系統(tǒng)變得安全是超級容易、容易、困難還是超級困難?
中國在人工智能方面是否有可能超越美國?這是否會因改變?nèi)斯ぶ悄苓M(jìn)步而采取的不同步驟而有所不同?
人工智能的快速進(jìn)步是會有助于還是損害我們應(yīng)對其他重大社會挑戰(zhàn) / 風(fēng)險(xiǎn)的努力(例如氣候變化)?
類似的問題還有很多。這些問題本身就很難回答,而要將它們整合到一個(gè)整體框架中,以得出關(guān)于 AI 理想進(jìn)展速度的有用結(jié)論就更加困難。
我們是否需要剎車
需要澄清的是,本文所指的「剎車」并非用「一刀切」的方式完全停止 AI 技術(shù)的發(fā)展。而是基于事實(shí)和對上述問題的回答,通過詳細(xì)定義、分析的技術(shù)和政策選項(xiàng)來減緩人工智能的進(jìn)步。
在 Brundage 看來,我們應(yīng)當(dāng)安裝(經(jīng)過設(shè)計(jì)和辯論的)「剎車」,因?yàn)楫?dāng)前 AI 的進(jìn)步明顯快于社會能夠有效理解和塑造的速度,而且這種情況可能不會很快改變 —— 甚至,二者之間差距可能逐漸擴(kuò)大。
理想情況下,政策制定者能夠掌控一切,但我們不知道最壞的情況是否會發(fā)生,所以要為各種情況做好準(zhǔn)備。
值得一提的是,去年 Brundage 曾寫過一篇文章,詳細(xì)分析了他所見的 AI 進(jìn)步和社會準(zhǔn)備度之間的差距。
原文鏈接:https://milesbrundage.substack.com/p/scoring-humanitys-progress-on-ai
目前來看,上述定義的「剎車」仍不存在,一部分證據(jù)是,我們看到了「科技公司單方面暫停 AI 開發(fā)」這種不切實(shí)際的提議。
這類政策不會發(fā)生也不會起作用,至少在未來很長一段時(shí)間內(nèi)是這樣,因?yàn)樨?fù)責(zé)任的 AI 開發(fā)是一個(gè)集體行動問題。Brundage 仍在 OpenAI 任職時(shí),他和團(tuán)隊(duì)在 2019 年發(fā)表的論文就詳細(xì)解釋了這一點(diǎn)。
原文鏈接:https://arxiv.org/pdf/1907.04534
大部分人都會擔(dān)心 AI 的發(fā)展。人們看到問題的存在,之后就會四處尋找答案,并提出一些非常簡單的解決方案,但政策制定是困難的,需要遠(yuǎn)見、辯論和認(rèn)真地研究。
OpenAI、哈佛肯尼迪學(xué)院、牛津、劍橋等機(jī)構(gòu)在今年 2 月聯(lián)合發(fā)表了一篇論文,討論安裝「剎車」的一種可能性 ——「算力儲備」(compute reserve)。
原文鏈接:https://arxiv.org/pdf/2402.08797
這類似于設(shè)置一個(gè)有黃金儲備的中央銀行,對市場經(jīng)濟(jì)的發(fā)展進(jìn)行宏觀調(diào)控;「算力儲備」也是如此,調(diào)節(jié) AI 發(fā)展的步伐節(jié)奏。
盡管已經(jīng)有了一篇 104 頁的論文打底,但「算力儲備」的方案仍存在很多問題和模糊之處。這不一定是正確的解決方案,但我們確實(shí)應(yīng)該對此和相關(guān)想法進(jìn)行更多討論,還有人工智能稅等等更多場景。
如果需要設(shè)計(jì)一個(gè)剎車的話,我們要不要同步配套一個(gè)「油門」?
Brundage 認(rèn)為,這也是必要的,但目前我們看到的是,已經(jīng)有各種小型的「油門踏板」被踩得很緊。
例如,CHIPS 法案將更多資金投入美國半導(dǎo)體制造;初創(chuàng)公司、風(fēng)投和大型科技公司不斷嘗試在橫軸和縱軸上擴(kuò)大 AI 規(guī)模;教育機(jī)構(gòu)不斷培養(yǎng)研究人員和工程師;消費(fèi)者們「用錢包投票」,通過為科技公司提供收入來間接支持 AI 更快地進(jìn)步。
考慮到減速方面的協(xié)調(diào)困難,單方面加速比單方面減速更容易。因此,從分配政策研究注意力的角度來看,關(guān)注困難的問題更有意義,也就是如何放緩 AI 的發(fā)展。
結(jié)論和后續(xù)步驟
總而言之,這篇博文著重論證了兩點(diǎn):
1. 對于標(biāo)題中的這個(gè)問題(AI 發(fā)展應(yīng)該加速、放緩,還是保持不變?),仍沒有人能給出合理且明智的答案
2. 盡管如此,謹(jǐn)慎地安裝「剎車」是明智的做法,從而為可能發(fā)生的情況做好準(zhǔn)備
Brundage 表示,目前缺乏「剎車」的情況讓他非常擔(dān)憂,而且在他職業(yè)生涯下一階段關(guān)注的主題中,「進(jìn)展速度」這個(gè)問題相當(dāng)重要。
盡管他表示,「AI 監(jiān)管措施」與「國家競爭力」之間并不存在大多數(shù)人所認(rèn)為的那種聯(lián)系,但他發(fā)表過的一篇推文直言:「與過度監(jiān)管相比,缺乏監(jiān)管,特別是與安全 + 出口管制相關(guān)的監(jiān)管,更有可能導(dǎo)致美國失去 AI 領(lǐng)域的領(lǐng)先地位」
參考資料:
https://x.com/chrisalbon/status/1852799633380237453
https://milesbrundage.substack.com/p/should-ai-progress-speed-up-slow
本文來自微信公眾號:新智元(ID:AI_era)
廣告聲明:文內(nèi)含有的對外跳轉(zhuǎn)鏈接(包括不限于超鏈接、二維碼、口令等形式),用于傳遞更多信息,節(jié)省甄選時(shí)間,結(jié)果僅供參考,IT之家所有文章均包含本聲明。