設置
  • 日夜間
    隨系統(tǒng)
    淺色
    深色
  • 主題色

我為什么離開 OpenAI?六年元老 Miles Brundage 發(fā)離職長文:AGI 將至,我們遠沒準備好

新智元 2024/11/9 15:43:28 責編:清源

6 年元老為何加入離職大軍?AGI 的未來,我們到底需要面對什么?OpenAI 前高級顧問 Miles Brundage 最近發(fā)表長文,細述了自己的思考和感受。

OpenAI 的「員工叛逃」還沒有結(jié)束。

近日,OpenAI 又有一位 6 年元老、研究主管 Miles Brundage 發(fā)表長文官宣離職,并詳細解釋了自己為何「出走」。

作為一家年輕的 AI 獨角獸,成立于 2015 年的 OpenAI 如今剛剛 9 歲,因此在公司待了 6 年之久的 Brundage 足以被稱為「元老」,見證了 OpenAI 如何一路起伏、篳路藍縷地走到今天。

在博文中,Brundage 也在開頭強調(diào):為 OpenAI 的高管和董事會提供建議,為 AGI 的到來做準備,這實際上是他夢想中的工作;甚至就在 2015 年 OpenAI 剛成立時,Brundage 興奮得一夜不睡,寫下一篇博文強調(diào)這個組織的重要性。

原文地址:https://www.milesbrundage.com/blog-posts/archives/12-2015

因此,離開 OpenAI 對他來說并不是一個容易的決定。但是為了有更多時間研究自己認為重要的課題,更獨立、自由地發(fā)表觀點和作品,Brundage 決定轉(zhuǎn)而加入(甚至自己創(chuàng)辦)非營利組織,將重點放在 AI 政策研究和倡導上。

Miles Brundage 本科畢業(yè)于喬治華盛頓大學,本科期間擔任過美國能源部的特別助理,之后前往亞利桑那州立大學攻讀博士,研究方向為科技的人類和社會維度,博士后期間曾在牛津大學擔任 AI 政策研究員。

2018 年,Miles Brundage 加入了剛剛成立 3 年的 OpenAI 擔任政策方面的研究科學家,之后又在 2021 年升任研究主管,目前是 AGI 準備工作的高級顧問。

為何離開 OpenAI

總體來看,Brundage 的離職是希望從行業(yè)外部而非內(nèi)部影響 AI 的發(fā)展,這與今年 Geoffrey Hinton 離開谷歌的原因如出一轍,具體有如下幾個考慮因素:

機會成本

本職工作已經(jīng)占去了幾乎全部的時間,因此 Brandage 感覺很難從事自己認為重要的研究課題。甚至在某些情況下,身處行業(yè)之外時,從事這些研究能更有影響力和說服力。

而且,OpenAI 目前已經(jīng)如此引人注目,成果發(fā)布前就需要從許多不同的角度進行審查,以至于無法發(fā)表某些主題的文章。

但值得注意的是,Brundage 并不是完全反對 OpenAI 在出版物審查方面的立場,他認為行業(yè)中存在出版限制是合理的,他本人也幫助編寫了 OpenAI 政策的幾個迭代版本,但公司目前施加的限制確實已經(jīng)太多了。

減少偏見

如果選擇成為某個組織的一部分,并且每天都和那里的同事們密切合作,你就很難對這個組織保持公正。

Brundage 表示,他在分析中盡力追求公正,但仍然會有偏見的存在。而且在 OpenAI 工作這件事本身,就會影響到外界如何看待自己的觀點和研究??紤]到財務利益上的沖突,人們有理由質(zhì)疑來自行業(yè)的政策想法。

在有關(guān)政策的對話中,有更多獨立于行業(yè)的聲音至關(guān)重要,而 Brundage 計劃成為其中之一。

在 OpenAI,能做的都做了

從入職至今,Brundage 認為自己作為「AGI 準備狀態(tài)高級顧問」的工作已經(jīng)完成了大部分。

「AGI 準備狀態(tài)」(AGI Readiness)主要分為兩種:一是 OpenAI 要準備好管理日益強大的 AI 能力,二是整個世界也要準備好有效管理 AI 能力,包括通過監(jiān)管 OpenAI 和其他公司。

對于前者,Brundage 已經(jīng)向他的負責對象 ——OpenAI 的高管和董事會 —— 詳細介紹了他認為 OpenAI 需要做什么,以及差距在哪里;而對于后者,他認為自己在 OpenAI 外部能夠更加有效。

雖然失去了一些在 OpenAI 發(fā)揮影響力的機會,但 Brandage 希望在更大程度上影響整個生態(tài)系統(tǒng)。

AGI,我們都沒準備好

Brundage 認為,對于即將到來的 AGI,OpenAI 或任何其他的前沿實驗室都還沒有準備好,這個世界也還沒有準備好。

原文地址:https://medium.com/@miles_24227/scoring-humanitys-progress-on-ai-governance-5a5131cb84c7

但需要明確的是,他不認為這種「沒準備好」的狀態(tài)與 OpenAI 領導層的聲明相沖突;同時他也暗示,雖然距離理想的標準存在相當?shù)牟罹啵俏覀內(nèi)钥梢栽谙嚓P(guān)時間點步入正軌,為此 Brundage 將在余下的職業(yè)生涯中致力于人工智能政策。

科技公司和這個世界是否走上了 AGI 準備的正軌,是一個復雜的函數(shù),取決于安全和保障方面的文化如何隨著時間的推移而發(fā)揮作用、監(jiān)管如何影響組織的激勵措施、各種有關(guān) AI 能力和安全方面困難的事實,以及各種其他因素。

此處,Brundage 特別表揚了 OpenAI 最近新增加董事會成員的決定,新吸納的成員包括前陸軍上將 Paul M. NakasoneCMU 機器學習系主任 Zico Kolter,這都是朝著正確方向邁出的一步。

順便一提,Brundage 表示,「AGI」這個術(shù)語承載了太多意義,它現(xiàn)在更多地暗示著一種二元思維方式,而不是實際意義,因此有必要澄清一下,此處的「為 AGI 做好準備」,指「準備好安全、可靠且有益地開發(fā)、部署和管理能力日益強大的 AI 系統(tǒng)」。

最近,他和團隊正在充實 OpenAI 提出的 AGI 五級框架,不久后或許會發(fā)表一篇正式的論文。這個框架曾被彭博社披露,引來了不少爭議。

雖然 Brundage 對 AI 政策抱持著謹慎和批判的態(tài)度,但對于 AGI 前景的預測,他的確稱得上是一個「技術(shù)樂觀主義者」,觀點與硅谷的風投大佬 Khosla 非常一致。

他認為,在未來短短的幾年內(nèi),人工智能很可能能夠?qū)崿F(xiàn)足夠的經(jīng)濟增長。假設我們能制定出適當?shù)恼邅泶_保公平分配,人類就能實現(xiàn)高生活水平的提前退休。

但在此之前的短期時間中,AI 很可能會搶走一些迫切需要工作的人的機會,尤其是那些可以遠程完成的、容易自動化的任務。

但事實是,人類最終應該擺脫為謀生而工作的義務,這也為構(gòu)建 AI 和 AGI 提供了最強有力的論據(jù)之一。從長遠來看,有些人可能會繼續(xù)工作,但不會像現(xiàn)在這樣有如此迫切的激勵因素。

一個「后工作世界」(post-work world)的風險之一就是文明的停滯(比如電影「機器人總動員」所展現(xiàn)的),但我們目前還沒有在政治、文化或其他方面為此做好準備,因此需要更多的思考、辯論和政策討論。

2008 年電影「機器人總動員」(WALL-E),由皮克斯工作室制作、迪士尼出品

很多人都描繪過「AI 造福人類」的前景,這些描述似乎是出于好意而非陰謀論。但目前存在效率低下的問題,很大程度上是由于民間社會和政府的技術(shù)專業(yè)知識不足,以及缺乏良好的規(guī)范和理論基礎。

例如,對于出現(xiàn)的問題,我們是否應該期望市場機制給出解決方法?什么時候應該構(gòu)建定制化、應用范圍狹窄的 AI 解決方案,什么時候應該提高通用 AI 系統(tǒng)的能力來解決?在各種情況中,正確的方法是繼續(xù)補足現(xiàn)有的技術(shù),還是創(chuàng)造全新的技術(shù),等等。

要不要在 OpenAI 工作

「要不要在 OpenAI 工作」,這個問題聽起來有點凡爾賽,可以類比下「斯坦福和 MIT 該選哪個」。

但如果屏幕前的你拿到了 offer 正在糾結(jié)該去 OpenAI 還是谷歌 DeepMind,Miles Brundage 的經(jīng)驗或許能幫助你解決這個甜蜜的煩惱。

在 OpenAI 工作是大多數(shù)人希望能做到的最有影響力的事情之一,所以在大多數(shù)情況下,答案是肯定的。

考慮到每個人擁有的技能和機會不同,很難做出籠統(tǒng)的陳述,但有一點是確定的 ——OpenAI 的每一個角色,以及每個人對待工作的謹慎程度都很重要,對 OpenAI 組織文化的每一項貢獻也很重要。

在通往更強大 AI 的道路上,每一次產(chǎn)品的部署都會發(fā)揮重要作用,比如影響行業(yè)規(guī)范,以及人們認知和監(jiān)管 AI 的方式。

在 OpenAI 工作,無論是 AI 的安全與保障,抑或是 AI 能力和產(chǎn)品方面的研究,發(fā)揮個人的能動作用來推動 AI 安全都是非常有影響力的。

下面這段話,似乎是 Brundage 的一段隔空喊話,寫給他仍在 OpenAI 工作的前同事們:

「任何在 OpenAI 工作的人都應該認真對待這樣一個事實:他們的行為和言論有助于組織文化,并且當這個組織開始掌管極其先進的能力時,可能會創(chuàng)造正面或負面的路徑依賴。文化對任何組織都很重要,但在前沿 AI 的背景下尤其重要,因為大部分決策不取決于監(jiān)管法規(guī),而是來自公司中的人?!?/p>

正如 Brundage 在前文所表示的,他認為某些政策研究最好在外部進行,AI 的安全和保障工作有時也是如此。盡管 OpenAI 內(nèi)部確實需要一些人來推動公司采取良好的政策立場,但存在獨立的安全研究也很有價值。

參考資料:

  • https://milesbrundage.substack.com/p/why-im-leaving-openai-and-what-im

  • https://www.reddit.com/r/singularity/comments/1gagocj/openai_senior_advisor_for_agi_readiness_leaving/

本文來自微信公眾號:微信公眾號(ID:null),作者:新智元

廣告聲明:文內(nèi)含有的對外跳轉(zhuǎn)鏈接(包括不限于超鏈接、二維碼、口令等形式),用于傳遞更多信息,節(jié)省甄選時間,結(jié)果僅供參考,IT之家所有文章均包含本聲明。

相關(guān)文章

關(guān)鍵詞:OpenAI,AGI通用人工智能

軟媒旗下網(wǎng)站: IT之家 最會買 - 返利返現(xiàn)優(yōu)惠券 iPhone之家 Win7之家 Win10之家 Win11之家

軟媒旗下軟件: 軟媒手機APP應用 魔方 最會買 要知