AGI 2025 年到來,ASI 幾千天內(nèi)降臨,阿爾特曼在最新專訪中金句頻出。不僅如此,他的話還得到了德?lián)渲?、自家員工的證實。
1 個人 + 10000 個 GPU,就能打造價值 10 億美元的公司?OpenAI 已經(jīng)掌握了通往 AGI 的內(nèi)部路徑,我們距 ASI 只有幾千天時間了?
就在最近,OpenAI CEO 阿爾特曼在最新訪談里,再次爆出不少金句。
YC 總裁兼 CEO Garry Tan 對阿爾特曼展開了一次訪問,談?wù)摿?OpenAI 的起源,公司的下一步發(fā)展,以及他對于創(chuàng)始人該如何駕馭一個龐大公司的建議。
在所有人都在認(rèn)為阿爾特曼又在炒作的同時,德?lián)渲?、OpenAI 研究員 Noam Brown 卻證實,「但據(jù)我所見,他所說的一切都與 OpenAI 一線研究人員的普遍觀點(diǎn)相符」。
另一位 OpenAI 員工稱,「100% 贊成!在 OpenAI 工作的三年里,我一直在專心地聽阿爾特曼的話,他的言辭和評論都很準(zhǔn)確」。
這也就意味著,4 級 AGI——「AI 發(fā)明者」很快將要實現(xiàn)了!
ASI 幾千天內(nèi)降臨,現(xiàn)在是創(chuàng)辦科技公司的最佳時機(jī)嗎
前不久,阿爾特曼的一篇《ASI 幾年內(nèi)降臨,人類奇點(diǎn)將至》在圈內(nèi)引發(fā)熱議。
他表示,深度學(xué)習(xí)已經(jīng)奏效了,它能夠真正學(xué)習(xí)任何數(shù)據(jù)的分布模式。如今人類奇點(diǎn)已經(jīng)近在咫尺,我們眼看著就要邁進(jìn) ASI 的大門。
阿爾特曼甚至直接預(yù)言:ASI 將在「幾千天內(nèi)」降臨!
由此,Garry Tan 和阿爾特曼展開了進(jìn)一步討論。
阿爾特曼表示,如今可以說是創(chuàng)辦科技公司的最佳時機(jī)。
每次重大技術(shù)革命,都讓我們能比之前做得多,這也讓他希望,公司會更令人驚奇,更有影響力。
當(dāng)事情進(jìn)展緩慢時,大公司會占據(jù)優(yōu)勢。當(dāng)移動互聯(lián)網(wǎng) / 半導(dǎo)體 / AI 革命發(fā)生時,新興公司就會占據(jù)優(yōu)勢。
Garry Tan 提到阿爾特曼之前對 ASI 幾千天內(nèi)到來的預(yù)判,阿爾特曼表示,這其實是 OpenAI 的愿景,其實相當(dāng)瘋狂。
他認(rèn)為,自己能看到這樣一條路徑。
當(dāng) OpenAI 的工作不斷積累,過去三年中的進(jìn)展繼續(xù)在接下來的三年、六年、九年中持續(xù)下去,保持這種速度,那系統(tǒng)能做的事情,就會非常非常多。
跟封閉的、在某領(lǐng)域有明確任務(wù)的原始智商相比,o1 已經(jīng)非常聰明了。
阿爾特曼認(rèn)為,我們可能會遇到未知的障礙,或者錯過一些東西,但目前看來,前方還有許多復(fù)合增長尚未發(fā)生。
在他看來,解決氣候問題、建立太空殖民地、發(fā)現(xiàn)所有物理學(xué)、近乎無限的智能和充足的能源這些事情,也許的確離我們并不遙遠(yuǎn)。
而他喜歡 YC 的一點(diǎn)就是,它鼓勵這種稍微不切實際的技術(shù)樂觀主義,以及「你可以做到」的信念感。
如果我們能實現(xiàn)充足能源,人類的體力勞動就能通過機(jī)器人和隨時可調(diào)動的語言和智能來解鎖,我們將進(jìn)入一個真正的富足時代。
我們會更快地得出更好的想法,然后在物理世界中將之實現(xiàn)(當(dāng)然也需要大量能源)。
如今,太陽能加儲能的發(fā)展軌跡已經(jīng)足夠好,即使沒有重大的核突破,我們也會很好。
阿爾特曼預(yù)言到:未來,我們會解決物理學(xué)中的每一個問題,這只是時間問題。
到那一天,我們不會再討論核聚變,而是討論戴森球。
對我們的曾孫來說,地球的能源已經(jīng)不夠了,他們會去有大量物質(zhì)的外太空。
OpenAI「5 級 AGI」藍(lán)圖
Garry Tan 表示,對 OpenAI 來說,這是偉大的一年,盡管有一些戲劇性事件。你從去年秋天的罷免事件中學(xué)到了什么,對一些離職有什么感受?
阿爾特曼稱,很累,但還好。我們用了不到兩年的時間,加速一個中型、甚至是大型科技公司的進(jìn)程,這通常來說會需要十年的時間。
Garry Tan 對此表示肯定。
這會伴隨著很多痛苦的事情。任何公司隨著規(guī)模擴(kuò)大,都會以某種速度經(jīng)歷管理團(tuán)隊的變動。那些在 0-1 階段表現(xiàn)出色的人,也不一定適合 1-10,10-100 的階段。
阿爾特曼繼續(xù)稱,我們也在改變目標(biāo)。在這個過程中犯了很多錯誤,但也做對了一些事情。
這帶來了很多變化,阿爾特曼認(rèn)為公司的目標(biāo)不論是 AGI 還是其他,就需要我們在每個階段盡可能做出最好的決策。
阿爾特曼希望,OpenAI 正在走向一個更穩(wěn)定的時期,但他也確定信未來還會有其他的,畢竟一切發(fā)展都是動態(tài)的。
Garry Tan 追問道,OpenAI 現(xiàn)在是如何運(yùn)作的?
阿爾特曼稱,我認(rèn)為從目前為止到構(gòu)建 AGI 仍有大量工作要做。而且,OpenAI 的研究路徑相當(dāng)清晰,基礎(chǔ)設(shè)施路徑、產(chǎn)品路徑也越來越清晰。
最近,OpenAI 在 YC 舉辦了 o1 黑客馬拉松,獲勝者之一是 Camphor。所以 CAD / CAM 初創(chuàng)公司,在黑客馬拉松期間,也可以構(gòu)建出一個可以迭代改進(jìn)的模型,這聽起來有點(diǎn)像 AGI 第四級,也就是創(chuàng)新者階段。
Garry Tan 稱,我認(rèn)為從二級躍升到三級很快就會發(fā)生,但三級到四級的跳躍會更加困難,需要一些中型或更大模型的想法。
阿爾特曼表示,那個演示和其他一些演示讓我相信,只要以非常有創(chuàng)意的方式使用現(xiàn)有模型,就可以獲得大量的創(chuàng)新。
Garry 稱,Camphor 基本上已經(jīng)構(gòu)建了 CAD / CAM 的基礎(chǔ)軟件。然后,語言就像是 LLM 的接口,可以像工具一樣使用軟件。如果你將其與代碼生成的想法結(jié)合起來,那是一個有點(diǎn)可怕又瘋狂的想法,對吧?
不僅 LLM 可以編寫代碼,它還可以為自己創(chuàng)建工具,然后組合這些工具,就像一個思維鏈一樣。
阿爾特曼肯定道,「是的,我認(rèn)為事情的發(fā)展速度會比人們現(xiàn)在所意識到的要快得多」。
Garry Tan 問道,你能簡要談?wù)劦谌?、第四級和第五級嗎?/p>
阿爾特曼稱,AGI 已經(jīng)成為一個被嚴(yán)重濫用的詞,人們指的東西各不相同。我們試圖說,這是我們對事物順序的最佳猜測。
第二級推理者,o1 已經(jīng)實現(xiàn)了這一階段。第三級是智能體,能夠執(zhí)行長期任務(wù),比如與環(huán)境多次互動,并與人類協(xié)同工作.... 我認(rèn)為,OpenAI 很快就實現(xiàn)這點(diǎn)。
第四級是創(chuàng)新者,就像科學(xué)家一樣,能夠在很長一段時間內(nèi),探索不太被理解的現(xiàn)象,并理解其本質(zhì)。
第五級,在整個公司 / 整個組織的規(guī)模上,將帶來巨變。
不得不承認(rèn),這聽起來感覺有點(diǎn)像分形,第二級目標(biāo)是為了和第五級相呼應(yīng),讓多個智能體自主糾正,并協(xié)同工作。
阿爾特曼繼續(xù)表示,這將會成為創(chuàng)業(yè)公司的最大時機(jī),我不知道如何看待這一點(diǎn),但它確實發(fā)生在我的身上。要知道,一個人 + 1 萬塊 GPU,將會打造數(shù)十億美元的公司。
最后,Garry Tan 問道,你對那些即將開始創(chuàng)業(yè),或剛剛開始創(chuàng)業(yè)的人,有什么建議?
阿爾特曼表示,繼續(xù)押注這個趨勢,當(dāng)前技術(shù)還遠(yuǎn)未達(dá)到飽和點(diǎn)。未來,模型會變得更好,而且速度非常快。作為創(chuàng)業(yè)公司創(chuàng)始人,利用這這點(diǎn)與沒有用上其相比,能夠做到的事情,是截然不同的。
那些大公司,中型公司,甚至是成立幾年的初創(chuàng)公司,他們已經(jīng)在進(jìn)行季度規(guī)劃周期。谷歌則是在進(jìn)行年度、十年規(guī)劃周期。
你的速度、專注、信念,以及對技術(shù)快速發(fā)展的反應(yīng)能力,是創(chuàng)業(yè)公司最大的優(yōu)勢。從古至今幾乎一直都是如此,但尤其是現(xiàn)在。
因此,我建議去構(gòu)建一些與 AI 相關(guān)的東西,并利用這種能力去發(fā)現(xiàn)新事物,并立即做出行動,而不是將其納入季度規(guī)劃周期。
此外,阿爾特曼還表示,當(dāng)有一個新的技術(shù)平臺時,一些人很容易陷入誤區(qū):
我在做 AI,所以普通的商業(yè)規(guī)則不適用于我。有了 AI 就足夠了,因此不需要其他競爭優(yōu)勢。
實際上,商業(yè)基本規(guī)則依然適用,不要被 AI 的光環(huán)迷惑,技術(shù)優(yōu)勢只是成功的一個要素,而并非全部。
阿爾特曼:我是如何加入 YC 的
Paul Graham 追憶過,在 2005 年,阿爾特曼還是斯坦福大學(xué)的大一新生時,就堅持加入 YC。
Graham 跟他說,你太年輕了可以再等等,阿爾特曼于是當(dāng)場撒了個謊,表示我大二了,我就要來。
Garry Tan 問道,是這樣嗎?
阿爾特曼承認(rèn)了這個故事,并且表示自己并不像這些人傳說中的那樣強(qiáng)大。
在他看來,YC 之所以如此特別,就是有一個了不起的人告訴你:去做吧,我相信你。而另外一個原因,就是在這里擁有一群同樣做事的同伴群體。
因此阿爾特曼給年輕人最好的建議就是找到這樣一群做事的同伴。當(dāng)時,他還沒有意識到,這件事對著自己后來的成功如此重要。
主持人提到:通過輟學(xué),你選擇了一條收益更大的路。
阿爾特曼表示,自己很喜歡斯坦福,但的確并沒有感覺到自己被一群讓自己想變得更好、更有雄心的人包圍。
在斯坦福,所有的競爭就集中在:誰能去哪個投行實習(xí)?
阿爾特曼慚愧地表示,自己也掉進(jìn)了那個陷阱。但在看到 YC 的氛圍后,選擇從斯坦福輟學(xué)其實并不那么難。
阿爾特曼認(rèn)為,沒人能免于同輩壓力,但你可以選擇和優(yōu)秀的人同行。
在他進(jìn)入 YC 研究的早期時間里,幾乎每個人都在談?wù)撝?AI,似乎它已觸手可及,但那是 10 年前。
在這樣的氛圍影響下,阿爾特曼開始希望他能夠講述一個 AI 顯然能成功并成為焦點(diǎn)的故事。YC 所做的,以及阿爾特曼此后的行為,就是將資源分給聰明的人。
有時會成功有時會失敗,但這種嘗試是必不可少的。
在阿爾特曼加入 YC 后不久,經(jīng)歷了 AI 發(fā)展的一個小高潮。
在 2014 年年末到 2016 年年初這段時間,DeepMind 取得了一系列矚目的成就,超級智能成為了當(dāng)時的熱議話題。
作為一個 AI 迷,阿爾特曼決定自己應(yīng)該嘗試做些什么了。
OpenAI 的創(chuàng)業(yè)那些事
尋找志同道合同伴的感覺,就像銀行搶劫的電影開頭,你開著車四處尋找合適的人。
而那些被你擄到車上的人,他們會說:「你這個混蛋,我加入了」。
在阿爾特曼聽聞了 Ilya 的大名,并通過 Youtube 上的視頻,確認(rèn)了他卻有不負(fù)盛名的能力后,他立即向 Ilya 發(fā)送了郵件。
當(dāng)然,Ilya 沒有回復(fù)。
阿爾特曼便去了 Ilya 演講的一個會議去見他,在見面后,他們開始了頻繁的交流。
而 Greg Brockman 是阿爾特曼在 Stripe 的工作的早期認(rèn)識的。
阿爾特曼回憶,他與 OpenAI 初創(chuàng)成員間的第一次談話中,就立下了追求通用人工智能的目標(biāo)。
這種言論在當(dāng)時幾乎是瘋狂且不負(fù)責(zé)任的,但它確實引起了成員們的注意和熱情。
阿爾特曼表示,他們當(dāng)時就像是掌握主流話語權(quán)的老頑固眼里的一群烏合之眾。阿爾特曼那時大概是 30 歲,是成員里年齡最大的那個,和其他人的差距也很大。
但就是這樣的一群充滿熱情的小年輕,到處奔波、逐個找人,與不同的群體會面。
而關(guān)于實現(xiàn)通用人工智能的這件事,在歷經(jīng)九個月后,開始成形。
2016 年的 1 月 3 日,在 Ilya 處理完與谷歌的事宜后,團(tuán)隊一起去了 Greg 的公寓,開始決定他們未來究竟要做哪些事。
而那時他們只有 10 個人左右。
而 OpenAI 的成員花了很長的時間才弄清楚他們究竟要做什么。
阿爾特曼現(xiàn)在回顧時,發(fā)現(xiàn)當(dāng)時的努力的目標(biāo)其實只有三個:
弄清楚如何進(jìn)行無監(jiān)督學(xué)習(xí),解決強(qiáng)化學(xué)習(xí),團(tuán)隊人數(shù)不超過 120 人。
雖然第三個目標(biāo)沒有達(dá)成,但前兩項在預(yù)期內(nèi)完成得不錯。
但他們的第二個大目標(biāo)卻在當(dāng)時引起了許多爭議和批評。
強(qiáng)化學(xué)習(xí)的核心信念就是深度學(xué)習(xí)有效,并且會隨著規(guī)模的擴(kuò)大變得更好。但在當(dāng)時,擴(kuò)大規(guī)模的做法被視為一種異端,批評者認(rèn)為這些是一些偷懶的小把戲,不是真正的學(xué)習(xí),也算不上推理。
擴(kuò)大規(guī)模只是在浪費(fèi)計算資源,甚至可能導(dǎo)致 AI 冬天的到來。
但對 OpenAI 來說,擴(kuò)大規(guī)模的做法雖然一開始源于團(tuán)隊的直覺,后來有了數(shù)據(jù)來證明它的可預(yù)測性。
OpenAI 的團(tuán)隊開始前,就通過自己得出的數(shù)據(jù)結(jié)果堅定了擴(kuò)大規(guī)模的趨勢。
隨著他們不斷提高模型的規(guī)模,結(jié)果也在不斷變好。
人們期望「少即是多」,但 OpenAI 卻證明了「多即是多」。
阿爾特曼表示,深度學(xué)習(xí)就像一種非常重要的涌現(xiàn)現(xiàn)象。雖然他們現(xiàn)在還沒完全理解實踐中的所有細(xì)節(jié),但確實有一些非?;A(chǔ)且重要的東西在發(fā)生。
對于 OpenAI 這樣的創(chuàng)業(yè)公司來說,它所擁有的資源比 DeepMind 這樣的公司要少得多。
大公司可以嘗試很多事,但創(chuàng)業(yè)公司只能專注在一項中,這就是 OpenAI 獲勝的原因和方法。
「我們不知道我們不知道的事,但我們知道這件事有效,所以我們會真正專注于此」。
「我們沒有花費(fèi)努力去找到一個聰明的方式去解決問題,而只是做眼前的事并持續(xù)推進(jìn)它」。
阿爾特曼表示,自己一直對規(guī)模感興趣,它對所有事物都具有涌現(xiàn)的特性。
對創(chuàng)業(yè)公司是這樣,事實也證明,它對深度學(xué)習(xí)也同樣起效。
但讓 OpenAI 獲得成功的原因,是它即使在籍籍無名時,也擁有一個極具才華的研究團(tuán)隊。
他們?yōu)槟繕?biāo)的推進(jìn)貢獻(xiàn)非常巨大。
而另一點(diǎn)是 OpenAI 將所有資源都賭在了他們擴(kuò)大規(guī)模的信念上。
人們總覺得雞蛋不能當(dāng)放同一個籃子里,但 OpenAI 則對自己的選擇 All in。
做一個堅定的樂觀主義者,阿爾特曼認(rèn)為這是許多成功的 YC 創(chuàng)業(yè)公司中的共同點(diǎn)。
同樣的,阿爾特曼也表示,沒有人能掌握世界上的所有正確答案,會告訴你應(yīng)該怎么去做。
你需要的是去尋找并快速迭代自己的路,而在初期,沒有數(shù)據(jù)和結(jié)果能支持你,你只能依靠自己的信念。
滿血版 o1、Sora 即將大放送
未來幾周,甚至兩個月內(nèi),OpenAI 真的要放大招了。
還記得幾周前,阿爾特曼突然冒泡,「下個月是 ChatGPT 的第二個生日,我們應(yīng)該送它什么生日禮物呢」?
在 11 月 30 日,即將迎來的 ChatGPT 兩周年前后,人們都在等著 OpenAI 新模型的發(fā)布。
這不,就連 ChatGPT 官方賬號都不藏著掖著了,滿血版 o1 快來了。
就在剛剛,OpenAI 研究員 Jason Wei 解釋了,o1 推理思維的過程。
在 o1 范式之前,思維鏈的實際表現(xiàn)和人類期望它達(dá)到的效果之間存在差距。它更像是先有了答案,再去對答案進(jìn)行解釋,列出步驟。
實際上,模型只是模仿了它在預(yù)訓(xùn)練中見過的推理路徑,比如數(shù)學(xué)作業(yè)解答,而不是一步步推理得到答案。
這些數(shù)據(jù)的問題在于,它是作者在其他地方完成所有思考后才總結(jié)出來的解答,而不是真正的思維過程。所以這些解答通常信息密度很差。
一個明顯的例子就是「答案是 5,因為...」這樣的表述,其中「5」這個數(shù)字突然包含了大量新信息。
在 o1 范式下,你可以看到思維鏈與教科書中的數(shù)學(xué)解答很不相同。
這些思維鏈更像是「內(nèi)心獨(dú)白」或「意識流」。你可以看到模型在不斷調(diào)整思路,說一些像「另外,讓我們試試」或「等等,但是」這樣的話。
雖然我沒有直接測量過,但我敢打賭(我的心理語言學(xué)朋友們可能能夠確認(rèn)),思維鏈中的信息密度比互聯(lián)網(wǎng)上的普通文本要均勻得多。
由此可見,o1 的思維鏈更接近「人類的思維過程」,答案是通過推理得出的。
另一邊,關(guān)了近一年的 Sora,終于要解禁了。
Runway 的聯(lián)合創(chuàng)始人表示,有傳言稱,OpenAI 計劃在兩周內(nèi)發(fā)布 Sora。我最擔(dān)心的是,不得不聽 AGI 領(lǐng)域的人在播客上談?wù)撍囆g(shù)和創(chuàng)造力的未來。
除此之外,OpenAI 內(nèi)部還有什么驚喜?畢竟,阿爾特曼都稱 AGI 明年就降臨了。
下一代 Orion,改進(jìn)不大
Information 獨(dú)家爆料稱,下一個代號為 Orion 旗艦新模型,可能并不會像前代那樣實現(xiàn)巨大的飛躍。
OpenAI 員工測試后發(fā)現(xiàn),盡管 Orion 性能超過了 OpenAI 現(xiàn)有模型,但與從 GPT-3 跳躍到 GPT-4 相比,改進(jìn)幅度較小。
換句話說,OpenAI 模型的改善速度似乎正在放緩。
事實上,Orion 在某些領(lǐng)域(例如編碼)可能根本不會比以前的模型更好。
為此,OpenAI 內(nèi)部已經(jīng)成立了一個基礎(chǔ)團(tuán)隊,以研究如何在新訓(xùn)練數(shù)據(jù)減少的情況下,繼續(xù)改進(jìn)模型。
據(jù)稱,這些新策略包括,在 AI 模型上生成的合成數(shù)據(jù)來訓(xùn)練 Orion,以及在訓(xùn)練后過程中進(jìn)行更多的模型改進(jìn)。
OpenAI 副總稱,「人們低估了測試時計算能力的強(qiáng)大:可以計算更長時間,并行計算,或任意分叉和分支 —— 就像克隆你的思維 1000 次并挑選最好的想法。」
就是說,在 AI 推理階段,我們可以通過增加計算資源來顯著提升模型表現(xiàn)。
但有網(wǎng)友表示,「聽說從某個前沿實驗室(老實說不是 OpenAI)傳出消息,他們在嘗試通過延長訓(xùn)練時間,使用越來越多數(shù)據(jù)來強(qiáng)行提升結(jié)果時,遇到了一個意想不到的巨大收益遞減瓶頸」。
如此說來,OpenAI 該如何挽救 Scaling Law?
參考資料:
https://x.com/tsarnick/status/1854992581610127621
https://www.youtube.com/watch?v=xXCBz_8hM9w
廣告聲明:文內(nèi)含有的對外跳轉(zhuǎn)鏈接(包括不限于超鏈接、二維碼、口令等形式),用于傳遞更多信息,節(jié)省甄選時間,結(jié)果僅供參考,IT之家所有文章均包含本聲明。