設(shè)置
  • 日夜間
    隨系統(tǒng)
    淺色
    深色
  • 主題色

機(jī)器之心的進(jìn)化 / 理解 AI 驅(qū)動的軟件 2.0 智能革命

INDIGO 的數(shù)字鏡像 2022/11/18 12:27:06 責(zé)編:遠(yuǎn)生

就在過去幾個(gè)月里,因?yàn)槊缆?lián)儲的加息,科技公司的資本狂歡宣告結(jié)束,美國上市的 SaaS 公司股價(jià)基本都跌去了 70%,裁員與緊縮是必要選項(xiàng)。但正當(dāng)市場一片哀嚎的時(shí)候,Dall-E 2 發(fā)布了,緊接著就是一大批炫酷的 AI 公司登場。這些事件在風(fēng)投界引發(fā)了一股風(fēng)潮,我們看到那些兜售著基于生成式 AI(Generative AI)產(chǎn)品的公司,估值達(dá)到了數(shù)十億美元,雖然收入還不到百萬美元,也沒有經(jīng)過驗(yàn)證的商業(yè)模式。不久前,同樣的故事在 Web 3 上也發(fā)生過!感覺我們又將進(jìn)入一個(gè)全新的繁榮時(shí)代,但人工智能這次真的能帶動科技產(chǎn)業(yè)復(fù)蘇么?

本文將帶你領(lǐng)略一次人工智能領(lǐng)域波瀾壯闊的發(fā)展史,從關(guān)鍵人物推動的學(xué)術(shù)進(jìn)展、算法和理念的涌現(xiàn)、公司和產(chǎn)品的進(jìn)步、還有腦科學(xué)對神經(jīng)網(wǎng)絡(luò)的迭代影響,這四個(gè)維度來深刻理解“機(jī)器之心的進(jìn)化”。先忘掉那些花里胡哨的圖片生產(chǎn)應(yīng)用,我們一起來學(xué)點(diǎn)接近 AI 本質(zhì)的東西。全文共分為六個(gè)章節(jié):

1.AI 進(jìn)化史 - 前神經(jīng)網(wǎng)絡(luò)時(shí)代、Machine Learning 的躍遷、開啟潘多拉的魔盒

2.軟件 2.0 的崛起 - 軟件范式的轉(zhuǎn)移和演化、Software 2.0 與 Bug 2.0

3.面向智能的架構(gòu) - Infrastructure 3.0、如何組裝智能、智能架構(gòu)的先鋒

4.一統(tǒng)江湖的模型 - Transformer 的誕生、基礎(chǔ)模型、AI 江湖的新機(jī)會

5.現(xiàn)實(shí)世界的 AI - 自動駕駛新前沿、機(jī)器人與智能代理

6.AI 進(jìn)化的未來 - 透視神經(jīng)網(wǎng)絡(luò)、千腦理論、人工智能何時(shí)能通用?

文章較長,累計(jì) 22800 字,請留出一小時(shí)左右的閱讀時(shí)間,歡迎先收藏再閱讀!

大家覺得機(jī)器智能能否超過人類么?帶著這個(gè)問題來閱讀,相信看完就會有系統(tǒng)性的答案!

本文在無特別指明的情況下,為了書寫簡潔,在同一個(gè)段落中重復(fù)詞匯大量出現(xiàn)時(shí),會用 AI(Artifical Intelligence)來代表 人工智能,用 ML(Machine Learning)來代表機(jī)器學(xué)習(xí),DL(Deep Learning)來代表深度學(xué)習(xí),以及各種英文縮寫來優(yōu)先表達(dá)。

01、AI 進(jìn)化史

對于機(jī)器是否真能 "知道"、"思考" 等問題,我們很難嚴(yán)謹(jǐn)?shù)亩x這些。我們對人類心理過程的理解,或許只比魚對游泳的理解更好一點(diǎn)。

John McCarthy

早在 1945 年,Alan Turing 就已經(jīng)在考慮如何用計(jì)算機(jī)來模擬人腦了。他設(shè)計(jì)了 ACE(Automatic Computing Engine - 自動計(jì)算引擎)來模擬大腦工作。在給一位同事的信中寫道:"與計(jì)算的實(shí)際應(yīng)用相比,我對制作大腦運(yùn)作的模型可能更感興趣 ...... 盡管大腦運(yùn)作機(jī)制是通過軸突和樹突的生長來計(jì)算的復(fù)雜神經(jīng)元回路,但我們還是可以在 ACE 中制作一個(gè)模型,允許這種可能性的存在,ACE 的實(shí)際構(gòu)造并沒有改變,它只是記住了數(shù)據(jù) ......" 這就是 機(jī)器智能 的起源,至少那時(shí)在英國都這樣定義。

1.1 前神經(jīng)網(wǎng)絡(luò)時(shí)代

神經(jīng)網(wǎng)絡(luò) 是以模仿人腦中的 神經(jīng)元 的運(yùn)作為 模型 的計(jì)算機(jī)系統(tǒng)。

AI 是伴隨著神經(jīng)網(wǎng)絡(luò)的發(fā)展而出現(xiàn)的。1956 年,美國心理學(xué)家 Frank Rosenblatt 實(shí)現(xiàn)了一個(gè)早期的神經(jīng)網(wǎng)絡(luò)演示 - 感知器模型(Perceptron Model),該網(wǎng)絡(luò)通過監(jiān)督 Learning 的方法將簡單的圖像分類,如三角形和正方形。這是一臺只有八個(gè)模擬神經(jīng)元的計(jì)算機(jī),這些神經(jīng)元由馬達(dá)和轉(zhuǎn)盤制成,與 400 個(gè)光探測器連接。

配圖 01:Frank Rosenblatt & Perceptron Model

IBM 的 Georgetown 實(shí)驗(yàn)室在這些研究的基礎(chǔ)上,實(shí)現(xiàn)了最早的機(jī)器語言翻譯系統(tǒng),可以在英語和俄語之間互譯。1956 年的夏天,在 Dartmouth College 的一次會議上,AI 被定義為計(jì)算機(jī)科學(xué)的一個(gè)研究領(lǐng)域,Marvin Minsky(明斯基), John McCarthy(麥卡錫), Claude Shannon(香農(nóng)), 還有 Nathaniel Rochester(羅切斯特)組織了這次會議,他們后來被稱為 AI 的 "奠基人"。

配圖 02:Participants of the 1956 Dartmouth Summer Research Project on AI

DARPA 在這個(gè)“黃金”時(shí)期,將大部分資金投入到 AI 領(lǐng)域,就在十年后他們還發(fā)明了 ARPANET(互聯(lián)網(wǎng)的前身)。早期的 AI 先驅(qū)們試圖教計(jì)算機(jī)做模仿人類的復(fù)雜心理任務(wù),他們將其分成五個(gè)子領(lǐng)域:推理、知識表述、規(guī)劃、自然語言處理(NLP)和 感知,這些聽起來很籠統(tǒng)的術(shù)語一直沿用至今。

從專家系統(tǒng)到機(jī)器學(xué)習(xí)

1966 年,Marvin Minsky 和 Seymour Papert 在《感知器:計(jì)算幾何學(xué)導(dǎo)論》一書中闡述了因?yàn)橛布南拗?,只有幾層的神?jīng)網(wǎng)絡(luò)僅能執(zhí)行最基本的計(jì)算,一下子澆滅了這條路線上研發(fā)的熱情,AI 領(lǐng)域迎來了第一次泡沫破滅。這些先驅(qū)們怎么也沒想到,計(jì)算機(jī)的速度能夠在隨后的幾十年里指數(shù)級增長,提升了上億倍。

在上世紀(jì)八十年代,隨著電腦性能的提升,新計(jì)算機(jī)語言 Prolog & Lisp 的流行,可以用復(fù)雜的程序結(jié)構(gòu),例如條件循環(huán)來實(shí)現(xiàn)邏輯,這時(shí)的人工智能就是 專家系統(tǒng)(Expert System),iRobot 公司絕對是那個(gè)時(shí)代明星;但短暫的繁榮之后,硬件存儲空間的限制,還有專家系統(tǒng)無法解決具體的、難以計(jì)算的邏輯問題,人工智能再一次陷入窘境。

我懷疑任何非常類似于形式邏輯的東西能否成為人類推理的良好模型。

Marvin Minsky

直到 IBM 深藍(lán)在 1997 年戰(zhàn)勝了國際象棋冠軍卡斯帕羅夫后,新的基于概率推論(Probabilistic Reasoning)思路開始被廣泛應(yīng)用在 AI 領(lǐng)域,隨后 IBM Watson 的項(xiàng)目使用這種方法在電視游戲節(jié)目《Jeopardy》中經(jīng)常擊敗參賽的人類。

概率推論就是典型的 機(jī)器學(xué)習(xí)(Machine Learning)。今天的大多數(shù) AI 系統(tǒng)都是由 ML 驅(qū)動的,其中預(yù)測模型是根據(jù)歷史數(shù)據(jù)訓(xùn)練的,并用于對未來的預(yù)測。這是 AI 領(lǐng)域的第一次范式轉(zhuǎn)變,算法不指定如何解決一個(gè)任務(wù),而是根據(jù)數(shù)據(jù)來誘導(dǎo)它,動態(tài)的達(dá)成目標(biāo)。因?yàn)橛辛?ML,才有了大數(shù)據(jù)(Big Data)這個(gè)概念。

1.2 Machine Learning 的躍遷

Machine Learning 算法一般通過分析數(shù)據(jù)和推斷模型來建立參數(shù),或者通過與環(huán)境互動,獲得反饋來學(xué)習(xí)。人類可以注釋這些數(shù)據(jù),也可以不注釋,環(huán)境可以是模擬的,也可以是真實(shí)世界。

Deep Learning

Deep Learning 是一種 Machine Learning 算法,它使用多層神經(jīng)網(wǎng)絡(luò)和反向傳播(Backpropagation)技術(shù)來訓(xùn)練神經(jīng)網(wǎng)絡(luò)。該領(lǐng)域是幾乎是由 Geoffrey Hinton 開創(chuàng)的,早在 1986 年,Hinton 與他的同事一起發(fā)表了關(guān)于深度神經(jīng)網(wǎng)絡(luò)(DNNs - Deep Neural Networks)的開創(chuàng)性論文,這篇文章引入了 反向傳播 的概念,這是一種調(diào)整權(quán)重的算法,每當(dāng)你改變權(quán)重時(shí),神經(jīng)網(wǎng)絡(luò)就會比以前更快接近正確的輸出,可以輕松的實(shí)現(xiàn)多層的神經(jīng)網(wǎng)絡(luò),突破了 1966 年 Minsky 寫的 感知器局限 的魔咒。

配圖 03:Geoffrey Hinton & Deep Neural Networks

Deep Learning 在 2012 年才真正興起,當(dāng)時(shí) Hinton 和他在多倫多的兩個(gè)學(xué)生表明,使用反向傳播訓(xùn)練的深度神經(jīng)網(wǎng)絡(luò)在圖像識別方面擊敗了最先進(jìn)的系統(tǒng),幾乎將以前的錯(cuò)誤率減半。由于他的工作和對該領(lǐng)域的貢獻(xiàn),Hinton 的名字幾乎成為 Deep Learning 的代名詞。

數(shù)據(jù)是新的石油

Deep Learning 是一個(gè)革命性的領(lǐng)域,但為了讓它按預(yù)期工作,需要數(shù)據(jù)。而最重要的數(shù)據(jù)集之一,就是由 李飛飛 創(chuàng)建的 ImageNet。曾任斯坦福大學(xué)人工智能實(shí)驗(yàn)室主任,同時(shí)也是谷歌云 AI / ML 首席科學(xué)家的李飛飛,早在 2009 年就看出數(shù)據(jù)對 Machine Learning 算法的發(fā)展至關(guān)重要,同年在計(jì)算機(jī)視覺和模式識別(CVPR)上發(fā)表了相關(guān)論文。

配圖 04:FeiFei Li & ImageNet

該數(shù)據(jù)集對研究人員非常有用,正因?yàn)槿绱?,它變得越來越有名,為最重要的年?DL 競賽提供了基準(zhǔn)。僅僅七年時(shí)間,ImageNet 讓獲勝算法對圖像中的物體進(jìn)行分類的準(zhǔn)確率從 72% 提高到了 98%,超過了人類的平均能力。

ImageNet 成為 DL 革命的首選數(shù)據(jù)集,更確切地說,是由 Hinton 領(lǐng)導(dǎo)的 AlexNet 卷積神經(jīng)網(wǎng)絡(luò)(CNN - Convolution Neural Networks)的數(shù)據(jù)集。ImageNet 不僅引領(lǐng)了 DL 的革命,也為其他數(shù)據(jù)集開創(chuàng)了先例。自其創(chuàng)建以來,數(shù)十種新的數(shù)據(jù)集被引入,數(shù)據(jù)更豐富,分類更精確。

神經(jīng)網(wǎng)絡(luò)大爆發(fā)

在 Deep Learning 理論和數(shù)據(jù)集的加持下,2012 年以來深度神經(jīng)網(wǎng)絡(luò)算法開始大爆發(fā),卷積神經(jīng)網(wǎng)絡(luò)(CNN)、遞歸神經(jīng)網(wǎng)絡(luò)(RNN - Recurrent Neural Network)和長短期記憶網(wǎng)絡(luò)(LSTM - Long Short-Term Memory)等等,每一種都有不同的特性。例如,遞歸神經(jīng)網(wǎng)絡(luò)是較高層的神經(jīng)元直接連接到較低層的神經(jīng)元。

來自日本的計(jì)算機(jī)研究員福島邦彥(Kunihiko Fukushima)根據(jù)人腦中視覺的運(yùn)作方式,創(chuàng)建了一個(gè)人工神經(jīng)網(wǎng)絡(luò)模型。該架構(gòu)是基于人腦中兩種類型的神經(jīng)元細(xì)胞,稱為簡單細(xì)胞和復(fù)雜細(xì)胞。它們存在于初級視覺皮層中,是大腦中處理視覺信息的部分。簡單細(xì)胞負(fù)責(zé)檢測局部特征,如邊緣;復(fù)雜細(xì)胞匯集了簡單細(xì)胞在一個(gè)區(qū)域內(nèi)產(chǎn)生的結(jié)果。例如,一個(gè)簡單細(xì)胞可能檢測到一個(gè)椅子的邊緣,復(fù)雜細(xì)胞匯總信息產(chǎn)生結(jié)果,通知下一個(gè)更高層次的簡單細(xì)胞,這樣逐級識別得到完整結(jié)果。

配圖 05:深度神經(jīng)網(wǎng)絡(luò)如何識別物體(TensorFlow)

CNN 的結(jié)構(gòu)是基于這兩類細(xì)胞的級聯(lián)模型,主要用于模式識別任務(wù)。它在計(jì)算上比大多數(shù)其他架構(gòu)更有效、更快速,在許多應(yīng)用中,包括自然語言處理和圖像識別,已經(jīng)被用來擊敗大多數(shù)其他算法。我們每次對大腦的工作機(jī)制的認(rèn)知多一點(diǎn),神經(jīng)網(wǎng)絡(luò)的算法和模型也會前進(jìn)一步!

1.3 開啟潘多拉的魔盒

從 2012 到現(xiàn)在,深度神經(jīng)網(wǎng)絡(luò)的使用呈爆炸式增長,進(jìn)展驚人。現(xiàn)在 Machine Learning 領(lǐng)域的大部分研究都集中在 Deep Learning 方面,就像進(jìn)入了潘多拉的魔盒被開啟了的時(shí)代。

配圖 06:AI 進(jìn)化史

GAN

生成對抗網(wǎng)絡(luò)(GAN - Generative Adversarial Network) 是 Deep Learning 領(lǐng)域里面另一個(gè)重要的里程碑,誕生于 2014 年,它可以幫助神經(jīng)網(wǎng)絡(luò)用更少的數(shù)據(jù)進(jìn)行學(xué)習(xí),生成更多的合成圖像,然后用來識別和創(chuàng)建更好的神經(jīng)網(wǎng)絡(luò)。GANs 的創(chuàng)造者 Ian Goodfellow 是在蒙特利爾的一個(gè)酒吧里想出這個(gè)主意的,它由兩個(gè)神經(jīng)網(wǎng)絡(luò)玩著貓捉老鼠的游戲,一個(gè)創(chuàng)造出看起來像真實(shí)圖像的假圖像,而另一個(gè)則決定它們是否是真的。

配圖 07:GANs 模擬生產(chǎn)人像的進(jìn)化

GANs 將有助于創(chuàng)建圖像,還可以創(chuàng)建現(xiàn)實(shí)世界的軟件模擬,Nvidia 就大量采用這種技術(shù)來增強(qiáng)他的現(xiàn)實(shí)模擬系統(tǒng),開發(fā)人員可以在那里訓(xùn)練和測試其他類型的軟件。你可以用一個(gè)神經(jīng)網(wǎng)絡(luò)來“壓縮”圖像,另一個(gè)神經(jīng)網(wǎng)絡(luò)來生成原始視頻或圖像,而不是直接壓縮數(shù)據(jù),Demis Hassabis 在他的一篇論文中就提到了人類大腦“海馬體”的記憶回放也是類似的機(jī)制。

大規(guī)模神經(jīng)網(wǎng)絡(luò)

大腦的工作方式肯定不是靠某人用規(guī)則來編程。

Geoffrey Hinton

大規(guī)模神經(jīng)網(wǎng)絡(luò)的競賽從成立于 2011 年的 Google Brain 開始,現(xiàn)在屬于 Google Research。他們推動了 TensorFlow 語言的開發(fā),提出了萬能模型 Transformer 的技術(shù)方案并在其基礎(chǔ)上開發(fā)了 BERT,我們在第四章中將詳細(xì)討論這些。

DeepMind 是這個(gè)時(shí)代的傳奇之一,在 2014 年被 Google 以 5.25 億美元收購的。它專注游戲算法,其使命是 "解決智能問題",然后用這種智能來 "解決其他一切問題"!DeepMind 的團(tuán)隊(duì)開發(fā)了一種新的算法 Deep Q-Network (DQN),它可以從經(jīng)驗(yàn)中學(xué)習(xí)。2015 年 10 月 AlphaGo 項(xiàng)目首次在圍棋中擊敗人類冠軍李世石;之后的 AlphaGo Zero 用新的可以自我博弈的改進(jìn)算法讓人類在圍棋領(lǐng)域再也無法翻盤。

另一個(gè)傳奇 OpenAI,它是一個(gè)由 Elon Musk, Sam Altman, Peter Thiel, 還有 Reid Hoffman 在 2015 年共同出資十億美金創(chuàng)立的科研機(jī)構(gòu),其主要的競爭對手就是 DeepMind。OpenAI 的使命是 通用人工智能(AGI – Artificial General Intelligence),即一種高度自主且在大多數(shù)具有經(jīng)濟(jì)價(jià)值的工作上超越人類的系統(tǒng)。2020 年推出的 GPT-3 是目前最好的自然語言生成工具(NLP - Natural Language Processing)之一,通過它的 API 可以實(shí)現(xiàn)自然語言同步翻譯、對話、撰寫文案,甚至是代碼(Codex),以及現(xiàn)在最流行的生成圖像(DALL?E)。

Gartner AI HypeCycle

Gartner 的技術(shù)炒作周期(HypeCycle)很值得一看,這是他們 2022 年最新的關(guān)于 AI 領(lǐng)域下各個(gè)技術(shù)發(fā)展的成熟度預(yù)估,可以快速了解 AI 進(jìn)化史 這一章中不同技術(shù)的發(fā)展階段。

配圖 08:Gartner AI HypeCycle 2022

神經(jīng)網(wǎng)絡(luò),這個(gè)在上世紀(jì) 60 年代碰到的挫折,然后在 2012 年之后卻迎來了新生。反向傳播 花了這么長時(shí)間才被開發(fā)出來的原因之一就是該功能需要計(jì)算機(jī)進(jìn)行 乘法矩陣運(yùn)算。在上世紀(jì) 70 年代末,世界上最強(qiáng)的的超級電腦之一 Cray-1,每秒浮點(diǎn)運(yùn)算速度 50 MFLOP,現(xiàn)在衡量 GPU 算力的單位是 TFLOP(Trillion FLOPs),Nvidia 用于數(shù)據(jù)中心的最新 GPU Nvidia Volta 的性能可以達(dá)到 125 TFLOP,單枚芯片的速度就比五十年前世界上最快的電腦強(qiáng)大 250 萬倍。技術(shù)的進(jìn)步是多維度的,一些生不逢時(shí)的理論或者方法,在另一些技術(shù)條件達(dá)成時(shí),就能融合出巨大的能量。

02、軟件 2.0 的崛起

未來的計(jì)算機(jī)語言將更多地關(guān)注目標(biāo),而不是由程序員來考慮實(shí)現(xiàn)的過程。

Marvin Minsky

Software 2.0 概念的最早提出人是 Andrej Karpathy,這位從小隨家庭從捷克移民來加拿大的天才少年在多倫多大學(xué)師從 Geoffrey Hinton,然后在斯坦福李飛飛團(tuán)隊(duì)獲得博士學(xué)位,主要研究 NLP 和計(jì)算機(jī)視覺,同時(shí)作為創(chuàng)始團(tuán)隊(duì)成員加入了 OpenAI,Deep Learning 的關(guān)鍵人物和歷史節(jié)點(diǎn)都被他點(diǎn)亮。在 2017 年被 Elon Musk 挖墻腳到了 Tesla 負(fù)責(zé)自動駕駛研發(fā),然后就有了重構(gòu)的 FSD(Full Self-Driving)。

按照 Andrej Karpathy 的定義 - “軟件 2.0 使用更抽象、對人類不友好的語言生成,比如神經(jīng)網(wǎng)絡(luò)的權(quán)重。沒人參與編寫這些代碼,一個(gè)典型的神經(jīng)網(wǎng)絡(luò)可能有數(shù)百萬個(gè)權(quán)重,用權(quán)重直接編碼比較困難”。Andrej 說他以前試過,這幾乎不是人類能干的事兒 。。

配圖 09:Andrej Karpathy 和神經(jīng)網(wǎng)絡(luò)權(quán)重

2.1 范式轉(zhuǎn)移

在創(chuàng)建深度神經(jīng)網(wǎng)絡(luò)時(shí),程序員只寫幾行代碼,讓神經(jīng)網(wǎng)絡(luò)自己學(xué)習(xí),計(jì)算權(quán)重,形成網(wǎng)絡(luò)連接,而不是手寫代碼。這種軟件開發(fā)的新范式始于第一個(gè) Machine Learning 語言 TensorFlow,我們也把這種新的編碼方式被稱為軟件 2.0。在 Deep Learning 興起之前,大多數(shù)人工智能程序是用 Python 和 JavaScript 等編程語言手寫的。人類編寫了每一行代碼,也決定了程序的所有規(guī)則。

配圖 10:How does Machine Learning work?(TensorFlow)

相比之下,隨著 Deep Learning 技術(shù)的出現(xiàn),程序員利用這些新方式,給程序指定目標(biāo)。如贏得圍棋比賽,或通過提供適當(dāng)輸入和輸出的數(shù)據(jù),如向算法提供具有 "SPAM” 特征的郵件和其他沒有"SPAM” 特征的郵件。編寫一個(gè)粗略的代碼骨架(一個(gè)神經(jīng)網(wǎng)絡(luò)架構(gòu)),確定一個(gè)程序空間的可搜索子集,并使用我們所能提供的算力在這個(gè)空間中搜索,形成一個(gè)有效的程序路徑。在神經(jīng)網(wǎng)絡(luò)里,我們一步步地限制搜索范圍到連續(xù)的子集上,搜索過程通過反向傳播和隨機(jī)梯度下降(Stochastic Gradient Descent)而變得十分高效。

神經(jīng)網(wǎng)絡(luò)不僅僅是另一個(gè)分類器,它代表著我們開發(fā)軟件的 范式開始轉(zhuǎn)移,它是 軟件 2.0。

軟件 1.0 人們編寫代碼,編譯后生成可以執(zhí)行的二進(jìn)制文件;但在軟件 2.0 中人們提供數(shù)據(jù)和神經(jīng)網(wǎng)絡(luò)框架,通過訓(xùn)練將數(shù)據(jù)編譯成二進(jìn)制的神經(jīng)網(wǎng)絡(luò)。在當(dāng)今大多數(shù)實(shí)際應(yīng)用中,神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)和訓(xùn)練系統(tǒng)日益標(biāo)準(zhǔn)化為一種商品,因此大多數(shù)軟件 2.0 的開發(fā)都由模型設(shè)計(jì)實(shí)施和數(shù)據(jù)清理標(biāo)記兩部分組成。這從根本上改變了我們在軟件開發(fā)迭代上的范式,團(tuán)隊(duì)也會因此分成了兩個(gè)部分: 2.0 程序員 負(fù)責(zé)模型和數(shù)據(jù),而那些 1.0 程序員 則負(fù)責(zé)維護(hù)和迭代運(yùn)轉(zhuǎn)模型和數(shù)據(jù)的基礎(chǔ)設(shè)施、分析工具以及可視化界面。

Marc Andreessen 的經(jīng)典文章標(biāo)題《Why Software Is Eating the World》現(xiàn)在可以改成這樣:“軟件(1.0)正在吞噬世界,而現(xiàn)在人工智能(2.0)正在吞噬軟件!

2.2 軟件的演化

軟件從 1.0 發(fā)展到軟件 2.0,經(jīng)過了一個(gè)叫做“數(shù)據(jù)產(chǎn)品”的中間態(tài)。當(dāng)頂級軟件公司在了解大數(shù)據(jù)的商業(yè)潛力后,并開始使用 Machine Learning 構(gòu)建數(shù)據(jù)產(chǎn)品時(shí),這種狀態(tài)就出現(xiàn)了。下圖來自 Ahmad Mustapha 的一篇文章《The Rise of Software 2.0》很好地呈現(xiàn)了這個(gè)過渡。

配圖 11:軟件產(chǎn)品演化的三種狀態(tài)

這個(gè)中間態(tài)也叫 大數(shù)據(jù) 和 算法推薦。在現(xiàn)實(shí)生活中,這樣的產(chǎn)品可以是 Amazon 的商品推薦,它們可以預(yù)測客戶會感興趣什么,可以是 Facebook 好友推薦,還可以是 Netflix 電影推薦或 Tiktok 的短視頻推薦。還有呢?Waze 的路由算法、Airbnb 背后的排名算法等等,總之琳瑯滿目。

數(shù)據(jù)產(chǎn)品有幾個(gè)重要特點(diǎn):1、它們都不是軟件的主要功能,通常是為了增加體驗(yàn),達(dá)成更好的用戶活躍以及銷售目標(biāo);2、能夠隨著數(shù)據(jù)的增加而進(jìn)化;3、大部分都是基于傳統(tǒng) ML 實(shí)現(xiàn)的,最重要的一點(diǎn) 數(shù)據(jù)產(chǎn)品是可解釋的。

但有些行業(yè)正在改變,Machine Learning 是主體。當(dāng)我們放棄通過編寫明確的代碼來解決復(fù)雜問題時(shí),這個(gè)到 2.0 技術(shù)棧 的轉(zhuǎn)變就發(fā)生了,在過去幾年中,很多領(lǐng)域都在突飛猛進(jìn)。語音識別 曾經(jīng)涉及大量的預(yù)處理、高斯混合模型和隱式 Markov 模型,但今天幾乎完全被神經(jīng)網(wǎng)絡(luò)替代了。早在 1985 年,知名信息論和語言識別專家 Fred Jelinek 就有一句經(jīng)常被引用的段子:“每當(dāng)我解雇一個(gè)語言學(xué)家,我們的語音識別系統(tǒng)的性能就會得到提高”。

配圖 12:圖解軟件 2.0 的代表應(yīng)用

除了大家熟悉的圖像語音識別、語音合成、機(jī)器翻譯、游戲挑戰(zhàn)之外,AI 在很多傳統(tǒng)系統(tǒng)也看到了早期的轉(zhuǎn)型跡象。例如 The Case for Learned Index Structures 用神經(jīng)網(wǎng)絡(luò)取代了數(shù)據(jù)管理系統(tǒng)的核心組件,在速度上比 B-Trees 緩存優(yōu)化達(dá)快 70%,同時(shí)節(jié)省了一個(gè)數(shù)量級的內(nèi)存。

所以,軟件 2.0 的范式具備了這幾個(gè)新特征:1、Deep Learning 是主體,所有的功能都是圍繞神經(jīng)網(wǎng)絡(luò)的輸入輸出構(gòu)建的,例如語音識別、自動駕駛;2、可解釋性并不重要,一個(gè)好的大數(shù)據(jù)推薦廣告可以告訴客戶用戶看到這條廣告的理由,但你沒法從神經(jīng)網(wǎng)絡(luò)中找到規(guī)則,至少目前不行;3、高研發(fā)投入與低開發(fā)投入,現(xiàn)在大量的成功都來自大學(xué)和科技公司的研究部門,論文絕對比應(yīng)用多 。。

2.3 軟件 2.0 的優(yōu)勢

為什么我們應(yīng)該傾向于將復(fù)雜的程序移植到軟件 2.0 中?Andrej Karpathy 在《Software 2.0》中給出了一個(gè)簡單的答案:它們在實(shí)踐中表現(xiàn)得更好!

容易被寫入芯片

由于神經(jīng)網(wǎng)絡(luò)的指令集相對較小,主要是矩陣乘法(Matrix Multiplication)和閾值判斷(Thresholding at Zero),因此把它們寫入芯片要容易得多,例如使用定制的 ASIC、神經(jīng)形態(tài)芯片等等(Alan Turing 在設(shè)計(jì) ACE 時(shí)就這樣考慮了)。例如,小而廉價(jià)的芯片可以帶有一個(gè)預(yù)先訓(xùn)練好的卷積網(wǎng)絡(luò),它們可以識別語音、合成音頻、處理視覺信號。當(dāng)我們周圍充斥著低能耗的智能時(shí),世界將會因此而大不同(好壞皆可)。

非常敏捷

敏捷開發(fā)意味著靈活高效。如果你有一段 C++ 代碼,有人希望你把它的速度提高一倍,那么你需要系統(tǒng)性的調(diào)優(yōu)甚至是重寫。然而,在軟件 2.0 中,我們在網(wǎng)絡(luò)中刪除一半的通道,重新訓(xùn)練,然后就可以了 。。它的運(yùn)行速度正好提升兩倍,只是輸出更差一些,這就像魔法。相反,如果你有更多的數(shù)據(jù)或算力,通過添加更多的通道和再次訓(xùn)練,你的程序就能工作得更好。

模塊可以融合成一個(gè)最佳的整體 

做過軟件開發(fā)的同學(xué)都知道,程序模塊通常利用公共函數(shù)、 API 或遠(yuǎn)程調(diào)用來通訊。然而,如果讓兩個(gè)原本分開訓(xùn)練的軟件 2.0 模塊進(jìn)行互動,我們可以很容易地通過整體進(jìn)行反向傳播來實(shí)現(xiàn)。想象一下,如果你的瀏覽器能夠自動整合改進(jìn)低層次的系統(tǒng)指令,來提升網(wǎng)頁加載效率,這將是一件令人驚奇的事情。但在軟件 2.0 中,這是默認(rèn)行為。

它做得比你好

最后,也是最重要的一點(diǎn),神經(jīng)網(wǎng)絡(luò)比你能想到的任何有價(jià)值的垂直領(lǐng)域的代碼都要好,目前至少在圖像、視頻、聲音、語音相關(guān)的任何東西上,比你寫的代碼要好。

2.4 Bug 2.0

對于傳統(tǒng)軟件,即軟件 1.0,大多數(shù)程序都通過源代碼保存,這些代碼可能少至數(shù)千行,多至上億行。據(jù)說,谷歌的整個(gè)代碼庫大約有 20 億行代碼。無論代碼有多少,傳統(tǒng)的軟件工程實(shí)踐表明,使用封裝和模塊化設(shè)計(jì),有助于創(chuàng)建可維護(hù)的代碼,很容易隔離 Bug 來進(jìn)行修改。

但在新的范式中,程序被存儲在內(nèi)存中,作為神經(jīng)網(wǎng)絡(luò)架構(gòu)的權(quán)重,程序員編寫的代碼很少。軟件 2.0 帶來了兩個(gè)新問題:不可解釋 和 數(shù)據(jù)污染。

因?yàn)橛?xùn)練完成的神經(jīng)網(wǎng)絡(luò)權(quán)重,工程師無法理解(不過現(xiàn)在對理解神經(jīng)網(wǎng)絡(luò)的研究有了很多進(jìn)展,第六章會講到),所以我們無法知道正確的執(zhí)行是為什么?錯(cuò)誤又是因?yàn)槭裁??這個(gè)和大數(shù)據(jù)算法有很大的不同,雖然大多數(shù)的應(yīng)用只關(guān)心結(jié)果,無需解釋;但對于一些安全敏感的領(lǐng)域,比如 自動駕駛 和 醫(yī)療應(yīng)用,這確實(shí)很重要。

在 2.0 的堆棧中,數(shù)據(jù)決定了神經(jīng)網(wǎng)絡(luò)的連接,所以不正確的數(shù)據(jù)集和標(biāo)簽,都會 混淆神經(jīng)網(wǎng)絡(luò)。錯(cuò)誤的數(shù)據(jù)可能來自失誤、也可能是人為設(shè)計(jì),或者是有針對性的投喂混淆數(shù)據(jù)(這也是人工智能領(lǐng)域中新的 程序道德規(guī)范 問題)。例如 iOS 系統(tǒng)的自動拼寫功能被意外的數(shù)據(jù)訓(xùn)練污染了,我們在輸入某些字符的時(shí)候就永遠(yuǎn)得不到正確的結(jié)果。訓(xùn)練模型會認(rèn)為污染數(shù)據(jù)是一個(gè)重要的修正,一但完成訓(xùn)練部署,這個(gè)錯(cuò)誤就像病毒一樣傳播,到達(dá)了數(shù)百萬部 iPhone 手機(jī)。所以在這種 2.0 版的 Bug 中,需要對數(shù)據(jù)以及程序結(jié)果進(jìn)行良好的測試,確保這些邊緣案例不會使程序失敗。

在短期內(nèi),軟件 2.0 將變得越來越普遍,那些沒法通過清晰算法和軟件邏輯化表述的問題,都會轉(zhuǎn)入 2.0 的新范式,現(xiàn)實(shí)世界并不適合整齊的封裝。就像明斯基說的,軟件開發(fā)應(yīng)該更多的關(guān)心目標(biāo)而不是過程,這種范式有機(jī)會顛覆整個(gè)開發(fā)生態(tài),軟件 1.0 將成為服務(wù)于軟件 2.0 周邊系統(tǒng),一同來搭建 面向智能的架構(gòu)。有越來越清楚的案例表明,當(dāng)我們開發(fā)通用人工智能(AGI)時(shí),它一定會寫在軟件 2.0 中。

03、面向智能的架構(gòu)

回顧過去十多年 Deep Learning 在人工智能領(lǐng)域波瀾壯闊的發(fā)展,大家把所有的關(guān)注點(diǎn)都集中了算法的突破、訓(xùn)練模型的創(chuàng)新還有智能應(yīng)用的神奇表現(xiàn)上,這些當(dāng)然可以理解,但關(guān)于智能系統(tǒng)的基礎(chǔ)設(shè)施被提及的太少了。

正如在計(jì)算機(jī)發(fā)展的早期,人們需要匯編語言、編譯器和操作系統(tǒng)方面的專家來開發(fā)一個(gè)簡單的應(yīng)用程序,所以今天你需要 大量的數(shù)據(jù) 和 分布式系統(tǒng) 才能大規(guī)模地部署人工智能。經(jīng)濟(jì)學(xué)大師 Andrew McAfee 和 Erik Brynjolfsson 在他們的著作《Machine, Platform, Crowd: Harnessing Our Digital Future》中諷刺地調(diào)侃:“我們的機(jī)器智能時(shí)代仍然是人力驅(qū)動的”。

好在 GANs 的出現(xiàn)讓完全依賴人工數(shù)據(jù)的訓(xùn)練成本大幅下降,還有 Google AI 在持續(xù)不斷的努力讓 AI 的基礎(chǔ)設(shè)施平民化。但這一切還在很早期,我們需要新的智能基礎(chǔ)設(shè)施,讓眾包數(shù)據(jù)變成眾包智能,把人工智能的潛力從昂貴的科研機(jī)構(gòu)和少數(shù)精英組織中釋放出來,讓其工程化。

3.1 Infrastructure 3.0

應(yīng)用程序和基礎(chǔ)設(shè)施的發(fā)展是同步的。

Infrastructure 1.0 - C / S(客戶端 / 服務(wù)器時(shí)代)

商業(yè)互聯(lián)網(wǎng)在上世紀(jì) 90 年代末期成熟起來,這要?dú)w功于 x86 指令集(Intel)、標(biāo)準(zhǔn)化操作系統(tǒng)(Microsoft)、關(guān)系數(shù)據(jù)庫(Oracle)、以太網(wǎng)(Cisco)和網(wǎng)絡(luò)數(shù)據(jù)存儲(EMC)。Amazon,eBay,Yahoo,甚至最早的 Google 和 Facebook 都建立在這個(gè)我們稱之為 Infrastructure 1.0 的基礎(chǔ)上。

Infrastructure 2.0 - Cloud(云時(shí)代)

Amazon AWS、Google Cloud 還有 Microsoft Azure 定義了一種新的基礎(chǔ)設(shè)施類型,這種基礎(chǔ)設(shè)施是無需物理部署可持續(xù)運(yùn)行的、可擴(kuò)展的、可編程的,它們有些是開源,例如 Linux、MySQL、Docker、Kubernetes、Hadoop、 Spark 等等,但大多數(shù)都是要錢的,例如邊緣計(jì)算服務(wù) Cloudflare、數(shù)據(jù)庫服務(wù) MangoDB、消息服務(wù) Twilio、支付服務(wù) Stripe,所有這些加在一起定義了 云計(jì)算時(shí)代。

歸根結(jié)底,這一代技術(shù)把互聯(lián)網(wǎng)擴(kuò)展到數(shù)十億的終端用戶,并有效地存儲了從用戶那里獲取的信息。Infrastructure 2.0 的創(chuàng)新催化了數(shù)據(jù)急劇增長,結(jié)合算力和算法飛速進(jìn)步,為今天的 Machine Learning 時(shí)代搭建了舞臺。

Infrastructure 2.0 關(guān)注的問題是 - “我們?nèi)绾芜B接世界?” 今天的技術(shù)重新定義了這個(gè)問題 - “我們?nèi)绾卫斫膺@個(gè)世界?” 這種區(qū)別就像連通性與認(rèn)知性的區(qū)別,先認(rèn)識再了解。2.0 架構(gòu)中的各種服務(wù),在給這個(gè)新的架構(gòu)源源不斷的輸送數(shù)據(jù),這就像廣義上的眾包;訓(xùn)練算法從數(shù)據(jù)中推斷出 邏輯(神經(jīng)網(wǎng)絡(luò)),然后這種 邏輯 就被用于對世界做出理解和預(yù)測。這種收集并處理數(shù)據(jù)、訓(xùn)練模型最后再部署應(yīng)用的新架構(gòu),就是 Infrastructure 3.0 - 面向智能的架構(gòu)。其實(shí)我們的大腦也是這樣工作的,我會在第六章中詳細(xì)介紹。

配圖 13:Hidden technical debt in Machine Learning Systems

在現(xiàn)實(shí)世界的 Machine Learning 系統(tǒng)中,只有一小部分是由 ML 代碼組成的,如中間的小黑盒所示,其周邊基礎(chǔ)設(shè)施巨大而繁雜。一個(gè)“智能”的應(yīng)用程序,數(shù)據(jù)非常密集,計(jì)算成本也非常高。這些特性使得 ML 很難適應(yīng)已經(jīng)發(fā)展了七十多年的通用的 馮?諾依曼計(jì)算范式。為了讓 Machine Learning 充分發(fā)揮其潛力,它必須走出今天的學(xué)術(shù)殿堂,成為一門工程學(xué)科。這實(shí)際上意味著需要有新的抽象架構(gòu)、接口、系統(tǒng)和工具,使開發(fā)人員能夠方便地開發(fā)和部署這些智能應(yīng)用程序。

3.2 如何組裝智能

想要成功構(gòu)建和部署人工智能,需要一個(gè)復(fù)雜的流程,這里涉及多個(gè)獨(dú)立的系統(tǒng)。首先,需要對數(shù)據(jù)進(jìn)行采集、清理和標(biāo)記;然后,必須確定預(yù)測所依據(jù)的特征;最后,開發(fā)人員必須訓(xùn)練模型,并對其進(jìn)行驗(yàn)證和持續(xù)優(yōu)化。從開始到結(jié)束,現(xiàn)在這個(gè)過程可能需要幾個(gè)月或者是數(shù)年,即使是行業(yè)中最領(lǐng)先的公司或者研究機(jī)構(gòu)。

好在除了算法和模型本身之外,組裝智能架構(gòu)中每個(gè)環(huán)節(jié)的效率都在提升,更高的算力和分布式計(jì)算框架,更快的網(wǎng)絡(luò)和更強(qiáng)大的工具。在每一層技術(shù)棧,我們都開始看到新的平臺和工具出現(xiàn),它們針對 Machine Learning 的范式進(jìn)行了優(yōu)化,這里面機(jī)會豐富。

配圖 14:Intelligence Infrastructure from Determined AI

參照智能架構(gòu)領(lǐng)域的投資專家 Amplify Partners 的分類,簡單做個(gè)技術(shù)棧說明。

為 Machine Learning 優(yōu)化的高性能芯片,它們內(nèi)置多計(jì)算核心和高帶寬內(nèi)存(HBM),可以高度并行化,快速執(zhí)行矩陣乘法和浮點(diǎn)數(shù)學(xué)神經(jīng)網(wǎng)絡(luò)計(jì)算,例如 Nvidia 的 H100 Tensor Core GPU 還有 Google 的 TPU;

能夠完全發(fā)揮硬件效率的系統(tǒng)軟件,可以將計(jì)算編譯到晶體管級別。Nvidia 在 2006 年就推出的 CUDA 到現(xiàn)在也都保持著領(lǐng)先地位,CUDA 是一個(gè)軟件層,可以直接訪問 GPU 的虛擬指令集,執(zhí)行內(nèi)核級別的并行計(jì)算;

用于訓(xùn)練和推理的分布式計(jì)算框架(Distributed Computing Frameworks),可以有效地跨多個(gè)節(jié)點(diǎn),擴(kuò)展模型的訓(xùn)練操作;

數(shù)據(jù)和元數(shù)據(jù)管理系統(tǒng),為創(chuàng)建、管理、訓(xùn)練和預(yù)測數(shù)據(jù)而設(shè)計(jì),提供了一個(gè)可靠、統(tǒng)一和可重復(fù)使用的管理通道。

極低延遲的服務(wù)基礎(chǔ)設(shè)施,使機(jī)器能夠快速執(zhí)行基于實(shí)時(shí)數(shù)據(jù)和上下文相關(guān)的智能操作;

Machine Learning 持續(xù)集成平臺(MLOps),模型解釋器,質(zhì)保和可視化測試工具,可以大規(guī)模的監(jiān)測,調(diào)試,優(yōu)化模型和應(yīng)用;

封裝了整個(gè) Machine Learning 工作流的終端平臺(End to End ML Platform),抽象出全流程的復(fù)雜性,易于使用。幾乎所有的擁有大用戶數(shù)據(jù)量的 2.0 架構(gòu)公司,都有自己內(nèi)部的 3.0 架構(gòu)集成系統(tǒng),Uber 的 Michelangelo 平臺就用來訓(xùn)練出行和訂餐數(shù)據(jù);Google 的 TFX 則是面向公眾提供的終端 ML 平臺,還有很多初創(chuàng)公司在這個(gè)領(lǐng)域,例如 Determined AI。

總的來說,Infrastructure 3.0 將釋放 AI / ML 的潛力,并為人類智能系統(tǒng)的構(gòu)建添磚加瓦。與前兩代架構(gòu)一樣,雖然上一代基礎(chǔ)設(shè)施的巨頭早已入場,但每一次范式轉(zhuǎn)移,都會有有新的項(xiàng)目、平臺和公司出現(xiàn),并挑戰(zhàn)目前的在位者。

2.3 智能架構(gòu)的先鋒

Deep Learning 被大科技公司看上的關(guān)鍵時(shí)刻是在 2010 年。在 Palo Alto 的一家日餐晚宴上,斯坦福大學(xué)教授 Andrew Ng 在那里會見了 Google 的 CEO Larry Page 和當(dāng)時(shí)擔(dān)任 Google X 負(fù)責(zé)人的天才計(jì)算機(jī)科學(xué)家 Sebastian Thrun。就在兩年前,Andrew 寫過一篇關(guān)于將 GPU 應(yīng)用于 DL 模型有效性分析論文。要知道 DL 在 2008 年是非常不受歡迎的,當(dāng)時(shí)是算法的天下。

幾乎在同一時(shí)期,Nvidia 的 CEO Jensen Huang 也意識到 GPU 對于 DL 的重要性,他是這樣形容的:"Deep Learning 就像大腦,雖然它的有效性是不合理的,但你可以教它做任何事情。這里有一個(gè)巨大的障礙,它需要大量的計(jì)算,而我們就是做 GPU 的,這是一個(gè)可用于 Deep Learning 的近乎理想的計(jì)算工具"。

以上故事的細(xì)節(jié)來自 Forbes 在 2016 年的一篇深度報(bào)道。自那時(shí)起,Nvidia 和 Google 就走上了 Deep Learning 的智能架構(gòu)之路,一個(gè)從終端的 GPU 出發(fā),另一個(gè)從云端的 TPU 開始。

配圖 15:Nvidia AI vs Google AI 的對比

Nvidia 今天賺的大部分錢的來自游戲行業(yè),通過銷售 GPU,賣加速芯片的事情 AMD 和很多創(chuàng)業(yè)公司都在做,但 Nvidia 在軟件堆棧上的能力這些硬件公司無人能及,因?yàn)樗袕膬?nèi)核到算法全面控制的 CUDA,還能讓數(shù)千個(gè)芯片協(xié)同工作。這種整體控制力,讓 Nvidia 可以發(fā)展云端算力服務(wù),自動駕駛硬件以及嵌入式智能機(jī)器人硬件,以及更加上層的 AI 智能應(yīng)用和 Omniverse 數(shù)字模擬世界。

Google 擁抱 AI 的方式非常學(xué)術(shù),他們最早成立了 Google Brain 嘗試大規(guī)模神經(jīng)網(wǎng)絡(luò)訓(xùn)練,點(diǎn)爆了這個(gè)領(lǐng)域的科技樹,像 GANs 這樣充滿靈感的想法也是來自于 Google (Ian Goodfellow 同學(xué)當(dāng)時(shí)任職于 Google Brain)。在 2015 年前后 Google 先后推出了 TensorFlow 還有 TPU(Tensor Processing Unit - 張量芯片),同年還收購了 DeepMind 來擴(kuò)張研究實(shí)力。Google AI 更傾向于用云端的方式給大眾提供 AI / ML 的算力和全流程工具,然后通過投資和收購的方式把智能融入到自己的產(chǎn)品線。

現(xiàn)在幾乎所有的科技巨頭,都在完善自己的“智能”基礎(chǔ)設(shè)施,Microsoft 在 2019 年投資了 10 億美金給 OpenAI 成為了他們最大的機(jī)構(gòu)股東;Facebook 也成立了 AI 研究團(tuán)隊(duì),這個(gè)僅次于他們 Reality Lab 的地位,Metaverse 里所需的一切和“智能”相關(guān)的領(lǐng)域他們都參與,今年底還和 AMD 達(dá)成合作,投入 200 億美元并用他們的芯片來搭建新的“智能”數(shù)據(jù)中心;然后就是 Tesla,在造電車之外不務(wù)正業(yè)搭建了世界上規(guī)模最大的超級電腦 Dojo,它將被用來訓(xùn)練 FSD 的神經(jīng)網(wǎng)絡(luò)和為未來的 Optimus(Tesla 人形機(jī)器人)的大腦做準(zhǔn)備。

正如過去二十年見證了“云計(jì)算技術(shù)棧”的出現(xiàn)一樣,在接下來的幾年里,我們也期待著一個(gè)巨大的基礎(chǔ)設(shè)施和工具生態(tài)系統(tǒng)將圍繞著智能架構(gòu) - Infrastructure 3.0 建立起來。Google 目前正處于這個(gè)領(lǐng)域的前沿,他們試圖自己的大部分代碼用 軟件 2.0 的范式重寫,并在新的智能架構(gòu)里運(yùn)行,因?yàn)橐粋€(gè)有可能一統(tǒng)江湖的“模型”的已經(jīng)出現(xiàn),雖然還非常早期,但 機(jī)器智能 對世界的理解很快將趨向一致,就像我們的 大腦皮質(zhì)層 理解世界那樣。

04、一統(tǒng)江湖的模型

想象一下,你去五金店,看到架子上有一種新款的錘子。你或許已經(jīng)聽說過這種錘子了,它比其他的錘子更快、更準(zhǔn);而且在過去的幾年里,許多其他的錘子在它面前都顯得過時(shí)了。你只需要加一個(gè)配件再扭一下,它就變成了一個(gè)鋸子,而且和其它的鋸子一樣快、一樣準(zhǔn)。事實(shí)上,這個(gè)工具領(lǐng)域的前沿專家說,這個(gè)錘子可能預(yù)示著所有的 工具都將集中到單一的設(shè)備中。

類似的故事也在 AI 的工具中上演,這種多用途的新型錘子是一種神經(jīng)網(wǎng)絡(luò),我們稱之為 Transformer(轉(zhuǎn)換器模型 - 不是動畫片里的變形金剛),它最初被設(shè)計(jì)用來處理自然語言,但最近已經(jīng)開始影響 AI 行業(yè)的其它領(lǐng)域了。

4.1 Transformer 的誕生

2017 年 Google Brain 和多倫多大學(xué)的研究人員一同發(fā)表了一篇名為《Attention Is All You Need》的論文,里面提到了一個(gè)自然語言處理(NLP)的模型 Transformer,這應(yīng)該是繼 GANs 之后 Deep Learning 領(lǐng)域最重大的發(fā)明。2018 年 Google 在 Transformer 的基礎(chǔ)上實(shí)現(xiàn)并開源了第一款自然語言處理模型 BERT;雖然研究成果來自 Google,但很快被 OpenAI 采用,創(chuàng)建了 GPT-1 和最近的火爆的 GPT-3。其他公司還有開源項(xiàng)目團(tuán)隊(duì)緊隨其后,實(shí)現(xiàn)了自己的 Transformer 模型,例如 Cohere,AI21,Eleuther(致力于讓 AI 保持開源的項(xiàng)目);也有用在其它領(lǐng)域的創(chuàng)新,例如生成圖像的 Dall-E 2、MidJourney、Stable Diffusion、Disco Diffusion, Imagen 和其它許多。

配圖 16:發(fā)表《Attention Is All You Need》論文的八位同學(xué)

發(fā)表這篇論文的 8 個(gè)人中,有 6 個(gè)人已經(jīng)創(chuàng)辦了公司,其中 4 個(gè)與人工智能相關(guān),另一個(gè)創(chuàng)辦了名為 Near.ai 的區(qū)塊鏈項(xiàng)目。

自然語言處理 這個(gè)課題在上世紀(jì)五十年代開創(chuàng) AI 學(xué)科的時(shí)候就明確下來了,但只到有了 Deep Learning 之后,它的準(zhǔn)確度和表達(dá)合理性才大幅提高。序列傳導(dǎo)模型(Seq2Seq)是用于 NLP 領(lǐng)域的一種 DL 模型,在機(jī)器翻譯、文本摘要和圖像字幕等方面取得了很大的成功,2016 年之后 Google 在搜索提示、機(jī)器翻譯等項(xiàng)目上都有使用。序列傳導(dǎo)模型是在 輸入端 一個(gè)接一個(gè)的接收并 編碼 項(xiàng)目(可以是單詞、字母、圖像特征或任何計(jì)算機(jī)可以讀取的數(shù)據(jù)),并在同步在 輸出端一個(gè)接一個(gè) 解碼 輸出項(xiàng)目的模型。

在機(jī)器翻譯的案例中,輸入序列就是一系列單詞,經(jīng)過訓(xùn)練好的神經(jīng)網(wǎng)絡(luò)中復(fù)雜的矩陣數(shù)學(xué)計(jì)算,在輸出端的結(jié)果就是一系列翻譯好的目標(biāo)詞匯。

Transformer 也是一款用于 NLP 的序列傳導(dǎo)模型,論文簡潔清晰的闡述了這個(gè)新的網(wǎng)絡(luò)結(jié)構(gòu),它只基于 注意力機(jī)制(Attention),完全不需要遞歸(RNN)和卷積(CNN)。在兩個(gè)機(jī)器翻譯的實(shí)驗(yàn)表明,這個(gè)模型在質(zhì)量上更勝一籌,同時(shí)也更容易并行化,需要的訓(xùn)練時(shí)間也大大減少。

好奇心強(qiáng)的同學(xué),如果想了解 Transformer 模型的具體工作原理,推薦閱讀 Giuliano Giacaglia 的這篇《How Transformers Work》。

4.2 Foundation Models

斯坦福大學(xué) CRFM & HAI 的研究人員在 2021 年 8 月的一篇名為《On the Opportunities and Risks of Foundation Models》的論文中將 Transformer 稱為 Foundation Models(基礎(chǔ)模型),他們認(rèn)為這個(gè)模型已經(jīng)推動了 AI 領(lǐng)域新一輪的范式轉(zhuǎn)移。事實(shí)上,過去兩年在 arVix 上發(fā)表的關(guān)于 AI 的論文中,70% 都提到了 Transformer,這與 2017 年 IEEE 的一項(xiàng)研究 相比是一個(gè)根本性的轉(zhuǎn)變,那份研究的結(jié)論是 RNN 和 CNN 是當(dāng)時(shí)最流行的模型。

從 NLP 到 Generative AI

來自 Google Brain 的計(jì)算機(jī)科學(xué)家 Maithra Raghu 分析了視覺轉(zhuǎn)換器(Vision Transformer),以確定它是如何“看到”圖像的。與 CNN 不同,Transformer 可以從一開始就捕捉到整個(gè)圖像,而 CNN 首先關(guān)注小的部分來尋找像邊緣或顏色這樣的細(xì)節(jié)。

這種差異在語言領(lǐng)域更容易理解,Transformer 誕生于 NLP 領(lǐng)域。例如這句話:“貓頭鷹發(fā)現(xiàn)了一只松鼠。它試圖抓住它,但只抓到了尾巴的末端?!?第二個(gè)句子的結(jié)構(gòu)令人困惑: “它”指的是什么?如果是 CNN 就只會關(guān)注“它”周圍的詞,那會十分不解;但是如果把每個(gè)詞和其他詞連接起來,就會發(fā)現(xiàn)是”貓頭鷹抓住了松鼠,松鼠失去了部分尾巴”。這種關(guān)聯(lián)性就是“Attention”機(jī)制,人類就是用這種模式理解世界的。

Transformer 將數(shù)據(jù)從一維字符串(如句子)轉(zhuǎn)換為二維數(shù)組(如圖像)的多功能性表明,這種模型可以處理許多其他類型的數(shù)據(jù)。就在 10 年前,AI 領(lǐng)域的不同分支幾乎沒有什么可以交流的,計(jì)算機(jī)科學(xué)家 Atlas Wang 這樣表述,“我認(rèn)為 Transformer 之所以如此受歡迎,是因?yàn)樗凳玖艘环N變得通用的潛力,可能是朝著實(shí)現(xiàn)某種神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)大融合方向的重要一步,這是一種通用的計(jì)算機(jī)視覺方法,或許也適用于其它的機(jī)器智能任務(wù)”。

更多基于 Transformer 模型的 Generative AI 案例,推薦好友 Rokey 的這篇《AI 時(shí)代的巫師與咒語》,這應(yīng)該是中文互聯(lián)網(wǎng)上寫得最詳細(xì)清晰的一篇。

涌現(xiàn)和同質(zhì)化

Foundation Models 的意義可以用兩個(gè)詞來概括:涌現(xiàn)和同質(zhì)化。涌現(xiàn) 是未知和不可預(yù)測的,它是創(chuàng)新和科學(xué)發(fā)現(xiàn)的源頭。同質(zhì)化 表示在廣泛的應(yīng)用中,構(gòu)建 Machine Learning 的方法論得到了整合;它讓你可以用統(tǒng)一的方法完成不同的工作,但也創(chuàng)造了單點(diǎn)故障。我們在 Bug 2.0 那一小節(jié)中提到的 數(shù)據(jù)污染 會被快速放大,現(xiàn)在還會波及到所有領(lǐng)域。

配圖 18:人工智能的涌現(xiàn)過程(來自斯坦福研究人員 2021 年 8 月的論文)

AI 的進(jìn)化史一個(gè)不斷涌現(xiàn)和同質(zhì)化的過程。隨著 ML 的引入,可以從實(shí)例中學(xué)習(xí)(算法概率推論);隨著 DL 的引入,用于預(yù)測的高級特征出現(xiàn);隨著基礎(chǔ)模型(Foundation Models)的出現(xiàn),甚至出現(xiàn)了更高級的功能,在語境中學(xué)習(xí)。同時(shí),ML 將算法同質(zhì)化(例如 RNN),DL 將模型架構(gòu)同質(zhì)化(例如 CNN),而基礎(chǔ)模型將模型本身同質(zhì)化(如 GPT-3)。

一個(gè)基礎(chǔ)模型如果可以集中來自各種模式的數(shù)據(jù)。那么這個(gè)模型就可以廣泛的適應(yīng)各種任務(wù)。

配圖 19:Foundation Model 的轉(zhuǎn)換(來自斯坦福研究人員 2021 年 8 月的論文)

除了在翻譯、文本創(chuàng)作、圖像生成、語音合成、視頻生成這些耳熟能詳?shù)念I(lǐng)域大放異彩之外,基礎(chǔ)模型也被用在了專業(yè)領(lǐng)域。

DeepMind 的 AlphaFold 2 在 2020 年 12 月成功的把蛋白質(zhì)結(jié)構(gòu)預(yù)測的準(zhǔn)確度提升到了 90% 多,大幅超過所有的競爭對手。他們在《自然》雜志上發(fā)表的文章中提到,像處理文本字符串這樣讀取氨基酸鏈,用這個(gè)數(shù)據(jù)轉(zhuǎn)換成可能的蛋白質(zhì)折疊結(jié)構(gòu),這項(xiàng)工作可以加速藥物的發(fā)現(xiàn)。類似的應(yīng)用也在藥物公司發(fā)生,阿斯利康(AstraZeneca)和 NVIDIA 聯(lián)合開發(fā)了 MegaMolBART,可以在未標(biāo)記的化合物數(shù)據(jù)庫上進(jìn)行培訓(xùn)練,大幅提升效率。

大規(guī)模語言模型

這種通用化的特征,讓大規(guī)模神經(jīng)網(wǎng)絡(luò)的訓(xùn)練變得非常有意義。自然語言又是所有可訓(xùn)練數(shù)據(jù)中最豐富的,它能夠讓基礎(chǔ)模型在語境中學(xué)習(xí),轉(zhuǎn)換成各種需要的媒體內(nèi)容,自然語言 = 編程方式 = 通用界面。

因此,大規(guī)模語言模型(LLMs - Large Scale Language Models)成了科技巨頭和新創(chuàng)業(yè)公司必爭之地。在這個(gè)軍備競賽之中,財(cái)大氣粗就是優(yōu)勢 ,它們可以花費(fèi)數(shù)億美元采購 GPU 來培訓(xùn) LLMs,例如 OpenAI 的 GPT-3 有 1750 億個(gè)參數(shù),DeepMind 的 Gopher 有 2800 億個(gè)參數(shù),Google 自己的 GLaM 和 LaMDA 分別有 1.2 萬億個(gè)參數(shù)和 1370 億個(gè)參數(shù),Microsoft 與 Nvidia 合作的 Megatron-Turing NLG 有 5300 億個(gè)參數(shù)。

但 AI 有個(gè)特征它是 涌現(xiàn) 的,大多數(shù)情況挑戰(zhàn)是科學(xué)問題,而不是工程問題。在 Machine Learning 中,從算法和體系結(jié)構(gòu)的角度來看,還有很大的進(jìn)步空間。雖然,增量的工程迭代和效率提高似乎有很大的空間,但越來越多的 LLMs 創(chuàng)業(yè)公司正在籌集規(guī)模較小的融資(1000 萬至 5000 萬美元) ,它們的假設(shè)是,未來可能會有更好的模型架構(gòu),而非純粹的可擴(kuò)展性。

4.3 AI 江湖的新機(jī)會

隨著模型規(guī)模和自然語言理解能力的進(jìn)一步增強(qiáng)(擴(kuò)大訓(xùn)練規(guī)模和參數(shù)就行),我們可以預(yù)期非常多的專業(yè)創(chuàng)作和企業(yè)應(yīng)用會得到改變甚至是顛覆。企業(yè)的大部分業(yè)務(wù)實(shí)際上是在“銷售語言”—— 營銷文案、郵件溝通、客戶服務(wù),包括更專業(yè)的法律顧問,這些都是語言的表達(dá),而且這些表達(dá)可以二維化成聲音、圖像、視頻,也能三維化成更真實(shí)的模型用于元宇宙之中。機(jī)器能理解文檔或者直接生成文檔,將是自 2010 年前后的移動互聯(lián)網(wǎng)革命和云計(jì)算以來,最具顛覆性的轉(zhuǎn)變之一。參考移動時(shí)代的格局,我們最終也會有三種類型的公司:

1、平臺和基礎(chǔ)設(shè)施

移動平臺的終點(diǎn)是 iPhone 和 Android,這之后都沒有任何機(jī)會了。但在基礎(chǔ)模型領(lǐng)域 OpenAI、Google、Cohere、AI21、Stability.ai 還有那些構(gòu)建 LLMs 的公司的競爭才剛剛開始。這里還有許多許新興的開源選項(xiàng)例如 Eleuther。云計(jì)算時(shí)代,代碼共享社區(qū) Github 幾乎托管了 軟件 1.0 的半壁江山,所以像 Hugging Face 這種共享神經(jīng)網(wǎng)絡(luò)模型的社群,應(yīng)該也會成為 軟件 2.0 時(shí)代智慧的樞紐和人才中心。

2、平臺上的獨(dú)立應(yīng)用

因?yàn)橛辛艘苿釉O(shè)備的定位、感知、相機(jī)等硬件特性,才有了像 Instagram,Uber,Doordash 這種離開手機(jī)就不會存在的服務(wù)?,F(xiàn)在基于 LLMs 服務(wù)或者訓(xùn)練 Transformer 模型,也會誕生一批新的應(yīng)用,例如 Jasper(創(chuàng)意文案)、Synthesia(合成語音與視頻),它們會涉及 Creator & Visual Tools、Sales & Marketing、Customer Support、Doctor & Lawyers、Assistants、Code、Testing、Security 等等各種行業(yè),如果沒有先進(jìn)的 Machine Learning 突破,這些就不可能存在。

紅衫資本美國(SequoiaCap)最近一篇很火的文章《Generative AI: A Creative New World》詳細(xì)分析了這個(gè)市場和應(yīng)用,就像在開篇介紹的那樣,整個(gè)投資界在 Web 3 的投機(jī)挫敗之后,又開始圍獵 AI 了 。

配圖 21:在模型之上的應(yīng)用分類(Gen AI market map V2)

3、現(xiàn)有產(chǎn)品智能化

在移動互聯(lián)網(wǎng)的革命中,大部分有價(jià)值的移動業(yè)務(wù)依舊被上個(gè)時(shí)代的巨頭所占據(jù)。例如,當(dāng)許多初創(chuàng)公司試圖建立“Mobile CRM”應(yīng)用時(shí),贏家是增加了移動支持的 CRM 公司,Salesforce 沒有被移動應(yīng)用取代。同樣,Gmail、Microsoft Office 也沒有被移動應(yīng)用取代,他們的移動版做得還不錯(cuò)。最終,Machine Learning 將被內(nèi)置到用戶量最大的 CRM 工具中,Salesforce 不會被一個(gè)全新由 ML 驅(qū)動的 CRM 取代,就像 Google Workspace 正在全面整合它們的 AI 成果一樣。

我們正處于 智能革命 的初期,很難預(yù)測將要發(fā)生的一切。例如 Uber 這樣的應(yīng)用,你按下手機(jī)上的按鈕,就會有一個(gè)陌生人開車來接你,現(xiàn)在看來稀疏平常,但智能手機(jī)剛出現(xiàn)的時(shí)候你絕對想不到這樣的應(yīng)用和交互界面。那些 人工智能的原生應(yīng)用 也將如此,所以請打開腦洞,最有趣的應(yīng)用形態(tài)還在等你去發(fā)掘。

我們已經(jīng)感受了基礎(chǔ)模型的強(qiáng)大,但這種方法真能產(chǎn)生的智力和意識么?今天的人工智能看起來非常像工具,而不像 智能代理。例如,像 GPT-3 在訓(xùn)練過程中不斷學(xué)習(xí),但是一旦模型訓(xùn)練完畢,它的參數(shù)的各種權(quán)重就設(shè)置好了,不會隨著模型的使用而發(fā)生新的學(xué)習(xí)。想象一下,如果你的大腦被凍結(jié)在一個(gè)瞬間,可以處理信息,但永遠(yuǎn)不會學(xué)到任何新的東西,這樣的智能是你想要的么?Transformer 模型現(xiàn)在就是這樣工作的,如果他們變得有知覺,可以動態(tài)的學(xué)習(xí),就像大腦的神經(jīng)元無時(shí)不刻不在產(chǎn)生新的連接那樣,那它們更高級的形態(tài)可能代表一種 新的智能。我們會在第六章聊一下這個(gè)話題,在這之前,先來看看 AI 如何在現(xiàn)實(shí)世界中生存的。

05、現(xiàn)實(shí)世界的 AI

過去對無人操作電梯的擔(dān)憂與我們今天聽到的對無人駕駛汽車的擔(dān)憂十分相似。

Garry Kasparov

現(xiàn)實(shí)世界的 AI(Real World AI),按照 Elon Musk 的定義 就是  “模仿人類來感知和理解周圍的世界的 AI”,它們是可以與人類世界共處的 智能機(jī)器。我們在本文前面四章中提到的用 AI 來解決的問題,大多數(shù)都是你輸入數(shù)據(jù)或者提出目標(biāo),然后 AI 反饋給你結(jié)果或者完成目標(biāo),很少涉及和真實(shí)世界的環(huán)境互動。在真實(shí)世界中,收集大量數(shù)據(jù)是極其困難的,除非像 Tesla 一樣擁有幾百萬輛帶著攝像頭還實(shí)時(shí)聯(lián)網(wǎng)的電車來幫你采集數(shù)據(jù);其次感知、計(jì)劃再到行動,應(yīng)該會涉及到多種神經(jīng)網(wǎng)絡(luò)和智能算法的組合,就像大腦控制人的行為那樣,這同樣也是對研發(fā)和工程學(xué)的極端挑戰(zhàn)。但在 Transformer 模型誕生之后,能夠征服現(xiàn)實(shí)世界的 AI 又有了新的進(jìn)展。

5.1 自動駕駛新前沿

就在前幾周 Ford 旗下的 Argo AI 宣布倒閉,一時(shí)間又給備受爭議的自動駕駛領(lǐng)域蒙上了陰影。目前還沒有一家做自動駕駛方案的公司真正盈利,除了傳奇的 George Hotz 所創(chuàng)辦的 Comma.ai,這個(gè)當(dāng)年 Elon Musk 都沒撬動的軟件工程師和高級黑客。

技術(shù)路線的選擇

一輛可以自動駕駛汽車,實(shí)際上就是一臺是需要同時(shí)解決硬件和軟件問題的 機(jī)器人。它需要用攝像頭、雷達(dá)或其他硬件設(shè)備來 感知周圍環(huán)境,軟件則是在了解環(huán)境和物理位置的情況下 規(guī)劃路線,最終讓車輛 駛達(dá)目的地。

目前的自動駕駛主要兩大流派:純視覺的系統(tǒng) 和基于 激光雷達(dá)的系統(tǒng)。Google 的 Waymo 是激光雷達(dá)方案的先驅(qū),還有剛破產(chǎn)的 Argo AI 也是,其實(shí)大部分都是這個(gè)流派,因?yàn)閮?yōu)勢很明顯,激光雷達(dá)可以精準(zhǔn)的識別三維世界,不需要太復(fù)雜的神經(jīng)網(wǎng)絡(luò)訓(xùn)練就能輕松上路,但大功率激光雷達(dá)的成本是個(gè)大問題;采用純視覺方案的只有 Tesla 和 Comma 這樣的另類公司,它們完全靠攝像頭和軟件,無需任何輔助感知硬件。

激光雷達(dá)還有另一個(gè)問題,它眼中的世界沒有色彩也沒有紋理,必須配合攝像頭才能描繪真實(shí)世界的樣子。但兩種數(shù)據(jù)混合起來會讓算法極其復(fù)雜,因此 Tesla 完全放棄了激光雷達(dá),甚至是超聲波雷達(dá),節(jié)省成本是很重要的一個(gè)原因,另一個(gè)原因是現(xiàn)實(shí)世界都道路都是為人類駕駛設(shè)計(jì)的,人只靠視覺就能完成這個(gè)任務(wù)為什么人工智能不行?這個(gè)理由很具 Elon Musk 的風(fēng)格,只需要加大在 神經(jīng)網(wǎng)絡(luò) 上的研發(fā)投入就可以。

Waymo 和 Tesla 是自動駕駛領(lǐng)域的領(lǐng)跑者,Gartner 的副總裁 Mike Ramsey 這樣評價(jià):“如果目標(biāo)是為大眾提供自動駕駛輔助,那么 Tesla 已經(jīng)很接近了;如果目標(biāo)讓車輛能夠安全的自動行駛,那么 Waymo 正在取得勝利”。Waymo 是 Level 4,可以在有限的地理?xiàng)l件下自動駕駛,不需要司機(jī)監(jiān)督,但驅(qū)動它的技術(shù)還沒有準(zhǔn)備好讓其在測試領(lǐng)域之外的大眾市場上使用,而且造價(jià)昂貴。從 2015 年開始,Tesla 花了六年多的時(shí)間趕上了 Waymo 現(xiàn)在的測試數(shù)據(jù),同時(shí)用于自動駕駛的硬件越來越少,成本越來越低。Tesla 的戰(zhàn)略很有意思:“自動駕駛要適應(yīng)任何道路,讓車像人一樣思考”,如果成功的話,它的可擴(kuò)展性會大得多。

讓車看見和思考

Tesla 在 AI 上的押注是從 2017 年 Andrej Karpathy 的加入開始的,一個(gè)靈魂人物確實(shí)能改變一個(gè)行業(yè)。Andrej 領(lǐng)導(dǎo)的 AI 團(tuán)隊(duì)完全重構(gòu)了原有的自動駕駛技術(shù),采用最新的神經(jīng)網(wǎng)絡(luò)模型 Transformer 訓(xùn)練了完全基于視覺的自動導(dǎo)航系統(tǒng) FSD Beta 10,在 2021 年的 AI Day 上,Tesla AI 團(tuán)隊(duì)也毫無保留了分享了這些最新的研發(fā)成果,目的是為了招募更多人才加入。

為了讓車可以像人一樣思考,Tesla 模擬了人類大腦處理視覺信息的方式,這是一套的由多種神經(jīng)網(wǎng)絡(luò)和邏輯算法組合而成的復(fù)雜流程。

配圖 22:The Architecture of Tesla AutoPilot

FSD 的自動駕駛步驟大概如下:

1.視覺影像收集:通過車載的 6 個(gè) 1280x960 解析度的攝像頭,采集 12bit 色深的視頻,識別出環(huán)境中的各種物體和 Triggers(道路情況)

2.向量空間生成:人類看到的世界是大腦根據(jù)感知數(shù)據(jù)實(shí)時(shí)構(gòu)建還原的三維世界,Tesla 用同樣的機(jī)制把車周圍世界的全部信息都投射到四維向量空間中,再做成動態(tài)的 BEV 鳥瞰圖,讓車在立體的空間中行使和預(yù)測,從而可以精準(zhǔn)控制。在 2021 年之前采用的是基于 Transformer 模型的 HydraNets,現(xiàn)在已經(jīng)升級到最新的 Occupancy Networks,它可以更加精準(zhǔn)的識別物體在 3D 空間中的占用情況

3.神經(jīng)網(wǎng)絡(luò)路線規(guī)劃:采用蒙特卡洛算法(mcts)在神經(jīng)網(wǎng)絡(luò)的引導(dǎo)下計(jì)算,快速完成自己路徑的搜索規(guī)劃,而且算法還能給所有移動的目標(biāo)都做計(jì)劃,并且可以及時(shí)改變計(jì)劃??磩e人的反應(yīng)作出自己的決策,這不就是人類思維么?

Tesla FSD 能夠如此快速的感知和決策,還得靠背后超級電腦 Tesla Dojo 的神經(jīng)網(wǎng)絡(luò)訓(xùn)練,這和 OpenAI 還有 Google 訓(xùn)練 LLMs 類似,只不過這些數(shù)據(jù)不來自互聯(lián)網(wǎng),而是跑在路上的每一輛 Tesla 汽車,通過 Shadow Mode 為 Dojo 提供真實(shí)的 3D 空間訓(xùn)練數(shù)據(jù)。

大自然選擇了眼睛來作為最重要的信息獲取器官,也許是冥冥之中的進(jìn)化必然。一個(gè)有理論認(rèn)為 5.3 億年前的寒武紀(jì)物種大爆發(fā)的部分原因是因?yàn)槟芸匆娛澜缌?,它讓新的物種可以在快速變化的環(huán)境中移動和導(dǎo)航、規(guī)劃行動了先和環(huán)境做出互動,生存概率大幅提高。同理,讓機(jī)器能看見,會不會一樣讓這個(gè)新物種大爆發(fā)呢?

5.2 不是機(jī)器人,是智能代理

并不是所有的機(jī)器人都具備感知現(xiàn)實(shí)世界的智能。對于一個(gè)在倉庫搬運(yùn)貨物的機(jī)器人來說,它們不需要大量的 Deep Learning,因?yàn)?環(huán)境是已知的和可預(yù)測的,大部分在特定環(huán)境中使用的自動駕駛汽車也是一樣的道理。就像讓人驚嘆的 Boston Dynamic 公司機(jī)器人的舞蹈,他們有世界上最好的機(jī)器人控制技術(shù),但要做那些安排好的動作,用程序把規(guī)則寫好就行。很多看官都會覺得 Tesla 在今年九月發(fā)布的機(jī)器人 Tesla Optimus 那慢悠悠的動作和 Boston Dynamic 的沒法比,但擁有一個(gè)優(yōu)秀的機(jī)器大腦和可以量產(chǎn)的設(shè)計(jì)更重要。

自動駕駛和真實(shí)世界互動的核心是安全,不要發(fā)生碰撞;但 AI 驅(qū)動的機(jī)器人的核心是和真實(shí)世界發(fā)生互動,理解語音,抓握避讓物體,完成人類下達(dá)的指令。驅(qū)動 Tesla 汽車的 FSD 技術(shù)同樣會用來驅(qū)動 Tesla Optimus 機(jī)器人,他們有相同的心臟(FSD Computer)和相同的大腦(Tesla Dojo)。但訓(xùn)練機(jī)器人比訓(xùn)練自動駕駛還要困難,畢竟沒有幾百萬個(gè)已經(jīng)投入使用的 Optimus 幫你從現(xiàn)實(shí)世界采集數(shù)據(jù),這時(shí) Metaverse 概念中的 虛擬世界 就能展露拳腳了。

虛擬世界中的模擬真實(shí)

為機(jī)器人感知世界建立新的 基礎(chǔ)模型 將需要跨越不同環(huán)境大量數(shù)據(jù)集,那些虛擬環(huán)境、機(jī)器人交互、人類的視頻、以及自然語言都可以成為這些模型的有用數(shù)據(jù)源,學(xué)界對使用這些數(shù)據(jù)在虛擬環(huán)境中訓(xùn)練的 智能代理 有個(gè)專門的分類 EAI(Embodied artificial intelligence)。在這一點(diǎn)上,李飛飛再次走在了前列,她的團(tuán)隊(duì)發(fā)布了一個(gè)標(biāo)準(zhǔn)化的模擬數(shù)據(jù)集 BEHAVIOR,包含 100 個(gè)類人常見動作,例如撿玩具、擦桌子、清潔地板等等,EAI 們可以在任何虛擬世界中進(jìn)行測試,希望這個(gè)項(xiàng)目能像 ImageNet 那樣對人工智能的訓(xùn)練數(shù)據(jù)領(lǐng)域有杰出的學(xué)術(shù)貢獻(xiàn)。

在虛擬世界中做模擬,Meta 和 Nvidia 自然不能缺席。佐治亞理工學(xué)院的計(jì)算機(jī)科學(xué)家 Dhruv Batra 也是 Meta AI 團(tuán)隊(duì)的主管,他們創(chuàng)造了一個(gè)名叫 AI 棲息地(AI Habitat)虛擬世界,目標(biāo)是希望提高模擬速度。在這里智能代理只需掛機(jī) 20 分鐘,就可以學(xué)成 20 年的模擬經(jīng)驗(yàn),這真是元宇宙一分鐘,人間一年呀。Nvidia 除了給機(jī)器人提供計(jì)算模塊之外,由 Omniverse 平臺提供支持的 NVIDIA Isaac Sim 是一款可擴(kuò)展的機(jī)器人模擬器與合成數(shù)據(jù)生成工具,它能提供逼真的虛擬環(huán)境和物理引擎,用于開發(fā)、測試和管理智能代理。

機(jī)器人本質(zhì)上是具體化的 智能代理,許多研究人員發(fā)現(xiàn)在虛擬世界中訓(xùn)練成本低廉、受益良多。隨著參與到這個(gè)領(lǐng)域的公司越來越多,那么數(shù)據(jù)和訓(xùn)練的需求也會越來越大,勢必會有新的適合 EAI 的 基礎(chǔ)模型 誕生,這里面潛力巨大。

Amazon Prime 最新的科幻劇集《The Peripheral》,改編自 William Gibson 在 2014 年的出版的同名小說,女主角就可以通過腦機(jī)接口進(jìn)入到未來的智能代理。以前一直覺得 Metaverse 是人類用來逃避現(xiàn)實(shí)世界的,但對于機(jī)器人來說,在 Metaverse 中修行才是用來征服現(xiàn)實(shí)世界的。

ARK Invest 在他們的 Big Ideas 2022 報(bào)告中提到,根據(jù)萊特定律,AI 相對計(jì)算單元(RCU - AI Relative Compute Unit)的生產(chǎn)成本可以每年下降 39%,軟件的改進(jìn)則可以在未來八年內(nèi)貢獻(xiàn)額外 37% 的成本下降。換句話說,到 2030 年,硬件和軟件的融合可以讓人工智能訓(xùn)練的成本以每年 60% 的速度下降。

配圖 26:AI 在 2030 年的市場規(guī)模 87 萬億美元

AI 硬件和軟件公司的市值可以以大約 50% 的年化速度擴(kuò)大,從 2021 年的 2.5 萬億美元劇增到 2030 年的 87 萬億美元。

通過將知識工作者的任務(wù)自動化,AI 應(yīng)能提高生產(chǎn)力并大幅降低單位勞動成本,從生成式 AI 的應(yīng)用的大爆發(fā)就可以看出端倪;但用來大幅降低體力勞動的成本,現(xiàn)實(shí)世界的 AI 還有更長的路要走。我們原以為著 AI 會讓體力勞動者失業(yè),卻不知道它們確有潛力讓腦力勞動者先下崗了。

06、AI 進(jìn)化的未來

科幻小說家 Arthur Clarke 這樣說過:"任何先進(jìn)的技術(shù)都與魔法無異"!如果回到 19 世紀(jì),想象汽車在高速路上以 100 多公里的時(shí)速行駛,或者用手機(jī)與地球另一端的人視頻通話,那都不可想象的。自 1956 年 Dartmouth Workshop 開創(chuàng)了人工智能領(lǐng)域以來,讓 AI 比人類更好地完成智力任務(wù),我們向先輩們的夢想前進(jìn)了一大步。雖然,有些人認(rèn)為這可能永遠(yuǎn)不會發(fā)生,或者是在非常遙遠(yuǎn)的未來,但 新的模型 會讓我們更加接近大腦工作的真相。對大腦的全面了解,才是 AI 通用化(AGI)的未來。

6.1 透視神經(jīng)網(wǎng)絡(luò)

科學(xué)家們發(fā)現(xiàn),當(dāng)用不同的神經(jīng)網(wǎng)絡(luò)訓(xùn)練同一個(gè)數(shù)據(jù)集時(shí),這些網(wǎng)絡(luò)中存在 相同的神經(jīng)元。由此他們提出了一個(gè)假設(shè):在不同的網(wǎng)絡(luò)中存在著普遍性的特征。也就是說,如果不同架構(gòu)的神經(jīng)網(wǎng)訓(xùn)練同一數(shù)據(jù)集,那么有一些神經(jīng)元很可能出現(xiàn)在所有不同的架構(gòu)中。

這并不是唯一驚喜。他們還發(fā)現(xiàn),同樣的 特征檢測器 也存在與不同的神經(jīng)網(wǎng)絡(luò)中。例如,在 AlexNet、InceptionV1、VGG19 和 Resnet V2-50 這些神經(jīng)網(wǎng)絡(luò)中發(fā)現(xiàn)了曲線檢測器(Curve Detectors)。。不僅如此,他們還發(fā)現(xiàn)了更復(fù)雜的 Gabor Filter,這通常存在于生物神經(jīng)元中。它們類似于神經(jīng)學(xué)定義的經(jīng)典 "復(fù)雜細(xì)胞",難道我們的大腦的神經(jīng)元也存在于人工神經(jīng)網(wǎng)絡(luò)中?

配圖 27:OpenAI Microscope Modules

OpenAI 的研究團(tuán)隊(duì)表示,這些神經(jīng)網(wǎng)絡(luò)是可以被理解的。通過他們的 Microscope 項(xiàng)目,你可以可視化神經(jīng)網(wǎng)絡(luò)的內(nèi)部,一些代表抽象的概念,如邊緣或曲線,而另一些則代表狗眼或鼻子等特征。不同神經(jīng)元之間的連接,還代表了有意義的算法,例如簡單的邏輯電路(AND、OR、XOR),這些都超過了高級的視覺特征。

大腦中的 Transformer

來自 University College London 的兩位神經(jīng)科學(xué)家 Tim Behrens 和 James Whittington 幫助證明了我們大腦中的一些結(jié)構(gòu)在數(shù)學(xué)上的功能與 Transformer 模型的機(jī)制類似,具體可以看這篇《How Transformers Seem to Mimic Parts of the Brain》,研究顯示了 Transformer 模型精確地復(fù)制在他們 大腦海馬體 中觀察到的那些工作模式。

去年,麻省理工學(xué)院的計(jì)算神經(jīng)科學(xué)家 Martin Schrimpf 分析了 43 種不同的神經(jīng)網(wǎng)絡(luò)模型,和大腦神經(jīng)元活動的磁共振成像(fMRI)還有皮層腦電圖(EEG)的觀測做對比。他發(fā)現(xiàn) Transformer 是目前最先進(jìn)的神經(jīng)網(wǎng)絡(luò),可以預(yù)測成像中發(fā)現(xiàn)的幾乎所有的變化。計(jì)算機(jī)科學(xué)家 Yujin Tang 最近也設(shè)計(jì)了一個(gè) Transformer 模型,并有意識的向其隨機(jī)、無序的地發(fā)送大量數(shù)據(jù),模仿人體如何將感官數(shù)據(jù)傳輸?shù)酱竽X。他們的 Transformer 模型,就像我們的大腦一樣,能夠成功地處理無序的信息流。

盡管研究在突飛猛進(jìn),但 Transformer 這種通用化的模型只是朝著大腦工作的精準(zhǔn)模型邁出的一小步,這是起點(diǎn)而不是探索的終點(diǎn)。Schrimpf 也指出,即使是性能最好的 Transformer 模型也是有限的,它們在單詞和短語的組織表達(dá)上可以很好地工作,但對于像講故事這樣的大規(guī)模語言任務(wù)就不行了。這是一個(gè)很好的方向,但這個(gè)領(lǐng)域非常復(fù)雜!

6.2 千腦理論

Jeff Hawkins 是 Palm Computing 和 Handspring 的創(chuàng)始人,也是 PalmPilot 和 Treo 的發(fā)明人之一。創(chuàng)辦企業(yè)之后,他轉(zhuǎn)向了神經(jīng)科學(xué)的工作,創(chuàng)立了紅木理論神經(jīng)科學(xué)中心(Redwood Center),從此專注人類大腦工作原理的研究?!禔 Thousand Brains》這本書詳細(xì)的解釋了他最重要的研究成,湛廬文化在今年九月推出了中文版《千腦智能》。

大腦新皮層(Neocortex)是智力的器官。幾乎所有我們認(rèn)為是智力的行為,如視覺、語言、音樂、數(shù)學(xué)、科學(xué)和工程,都是由新皮層創(chuàng)造的。Hawkins 對它工作機(jī)理采取了一種新的解釋框架,稱為 "Thousand Brains Theory",即你的大腦被組織成成千上萬個(gè)獨(dú)立的計(jì)算單元,稱為皮質(zhì)柱(Cortical Columns)。這些柱子都以同樣的方式處理來自外部世界的信息,并且每個(gè)柱子都建立了一個(gè)完整的世界模型。但由于每根柱子與身體的其他部分有不同的聯(lián)系,所以每根柱子都有一個(gè)獨(dú)特的參考框架。你的大腦通過進(jìn)行投票來整理出所有這些模型。因此,大腦的基本工作不是建立一個(gè)單一的思想,而是管理它每時(shí)每刻都有的成千上萬個(gè)單獨(dú)的思想。

我們可以把運(yùn)行 Transformer 訓(xùn)練的神經(jīng)網(wǎng)絡(luò)的電腦想象成一個(gè)及其簡陋的 人工皮質(zhì)柱,給它灌輸各種數(shù)據(jù),它輸出預(yù)測數(shù)據(jù)(參考第四、五兩章的講解來理解)。但大腦新皮層有 20 多萬個(gè)這樣的小電腦在分布式計(jì)算,他們連接著各種感知器官輸入的數(shù)據(jù),最關(guān)鍵的是大腦無需預(yù)訓(xùn)練,神經(jīng)元自己生長就完成了學(xué)習(xí),相當(dāng)于把人造的用于訓(xùn)練的超級電腦和預(yù)測數(shù)據(jù)的電腦整合了。在科學(xué)家沒有給大腦完成逆向工程之前,AGI 的進(jìn)展還舉步維艱。

千腦理論 本質(zhì)上是一種感覺-運(yùn)動理論(Sensory-Motor Theory),它解釋了我們?nèi)绾瓮ㄟ^看到、移動和感知三維空間來學(xué)習(xí)、識別物體。在該理論中,每個(gè) 皮質(zhì)柱 都有完整物體的模型,因此知道在物體的每個(gè)位置應(yīng)該感應(yīng)到什么。如果一個(gè)柱子知道其輸入的當(dāng)前位置以及眼睛是如何移動的,那么它就可以預(yù)測新的位置以及它在那里將感應(yīng)到什么。這就像看一張城鎮(zhèn)地圖,預(yù)測如果你開始朝某個(gè)方向走,你會看到什么一樣。有沒有覺得這個(gè)過程和 Tesla 的純視覺自動駕駛 的實(shí)現(xiàn)方法很像?感知、建模、預(yù)測和行動。

要像大腦一樣學(xué)習(xí)

自我監(jiān)督:新皮層的計(jì)算單位是 皮質(zhì)柱,每個(gè)柱子都是一個(gè)完整的感覺-運(yùn)動系統(tǒng),它獲得輸入,并能產(chǎn)生行為。比如說,一個(gè)物體移動時(shí)的未來位置,或者一句話中的下一個(gè)詞,柱子都會預(yù)測它的下一次輸入會是什么。預(yù)測是 皮質(zhì)柱 測試和更新其模型的方法。如果結(jié)果和預(yù)測不同,這個(gè)錯(cuò)誤的答案就會讓大腦完成一次修正,這種方式就是自我監(jiān)督。現(xiàn)在最前沿的神經(jīng)網(wǎng)絡(luò)正 BERT、RoBERTa、XLM-R 正在通過預(yù)先訓(xùn)練的系統(tǒng)來實(shí)現(xiàn)“自我監(jiān)督”。

持續(xù)學(xué)習(xí):大腦通過 神經(jīng)元 組織來完成持續(xù)學(xué)習(xí)。當(dāng)一個(gè)神經(jīng)元學(xué)一個(gè)新的模式時(shí),它在一個(gè)樹突分支上形成新的突觸。新的突觸并不影響其他分支上先前學(xué)到的突觸。因此,學(xué)新的東西不會迫使神經(jīng)元忘記或修改它先前學(xué)到的東西。今天,大多數(shù) Al 系統(tǒng)的人工神經(jīng)元并沒有這種能力,他們經(jīng)歷了一個(gè)漫長的訓(xùn)練,當(dāng)完成后他們就被部署了。這就是它們不靈活的原因之一,靈活性要求不斷調(diào)整以適應(yīng)不斷變化的條件和新知識。

多模型機(jī)制的:新皮層由數(shù)以萬計(jì)的皮質(zhì)柱組成,每根柱子都會學(xué)物體的模型,使多模型設(shè)計(jì)發(fā)揮作用的關(guān)鍵是投票。每一列都在一定程度上獨(dú)立運(yùn)作,但新皮層中的長距離連接允許各列對其感知的對象進(jìn)行投票。智能機(jī)器的 "大腦" 也應(yīng)該由許多幾乎相同的元素(模型)組成,然后可以連接到各種可移動的傳感器。

有自己的參考框架:大腦中的知識被儲存在參考框架中。參考框架也被用來進(jìn)行預(yù)測、制定計(jì)劃和進(jìn)行運(yùn)動,當(dāng)大腦每次激活參考框架中的一個(gè)位置并檢索相關(guān)的知識時(shí),就會發(fā)生思考。機(jī)器需要學(xué)會一個(gè)世界的模型,當(dāng)我們與它們互動時(shí),它們?nèi)绾巫兓?,以及彼此之間的相對位置,都需要參考框架來表示這類信息。它們是知識的骨干。

為什么需要通用人工智能(AGI)

AI 將從我們今天看到的專用方案過渡到更多的通用方案,這些將在未來占據(jù)主導(dǎo)地位,Hawkins 認(rèn)為主要有兩個(gè)原因:

第一個(gè)就和通用電腦戰(zhàn)勝專用電腦的原因一樣。通用電腦有更好的成效比,這導(dǎo)致了技術(shù)的更快進(jìn)步。隨著越來越多的人使用相同的設(shè)計(jì),更多的努力被用于加強(qiáng)最受歡迎的設(shè)計(jì)和支持它們的生態(tài)系統(tǒng),導(dǎo)致成本降低和性能的提升。這是算力指數(shù)式增長的基本驅(qū)動力,它塑造了二十世紀(jì)后半葉的工業(yè)和社會。

Al 將通用化的第二個(gè)原因是,機(jī)器智能的一些最重要的未來應(yīng)用將需要通用方案的靈活性,例如 Elon Musk 就希望可以有通用智能的機(jī)器人來幫忙探索火星。這些應(yīng)用將需要處理很多無法預(yù)料的問題,并設(shè)計(jì)出新穎的解決方案,而今天的專用的 Deep Learning 模型還無法做到這一點(diǎn)。

6.3 人工智能何時(shí)通用?

通用人工智能(AGI)這是 AI 領(lǐng)域的終極目標(biāo),應(yīng)該也是人類發(fā)明了機(jī)器計(jì)算之后的終極進(jìn)化方向。回顧 機(jī)器之心 六十多年的進(jìn)化,我們似乎找到了方法,就是模仿人類的大腦。Machine Learning 要完成這塊拼圖,需要有 數(shù)據(jù)、算力 還有 模型的改進(jìn)。

數(shù)據(jù) 應(yīng)該是拼圖中最容易實(shí)現(xiàn)的。按秒來計(jì)算,ImageNet 數(shù)據(jù)集的大小已經(jīng)接近人從出生到大學(xué)畢業(yè)視覺信號的數(shù)據(jù)量;Google 公司創(chuàng)建的新模型 HN Detection,用來理解房屋和建筑物外墻上的街道號碼的數(shù)據(jù)集大小,已經(jīng)可以和人一生所獲取的數(shù)據(jù)量所媲美。要像人類一樣,使用更少的數(shù)據(jù)和更高的抽象來學(xué)習(xí),才是神經(jīng)網(wǎng)絡(luò)的發(fā)展方向。

算力 可以分解為兩個(gè)部分:神經(jīng)網(wǎng)絡(luò)的參數(shù)(神經(jīng)元的數(shù)量和連接)規(guī)模以及單位計(jì)算的成本。下圖可以看到,人工神經(jīng)網(wǎng)絡(luò)與人腦的大小仍有數(shù)量級的差距,但它們在某些哺乳動物面前,已經(jīng)具備競爭力了。

配圖 29:神經(jīng)網(wǎng)絡(luò)規(guī)模和動物與人類神經(jīng)元規(guī)模的對比

我們每花一美元所能得到的計(jì)算能力一直在呈指數(shù)級增長?,F(xiàn)在大規(guī)模基礎(chǔ)模型所用到的計(jì)算量每 3.5 個(gè)月就會翻一番。

配圖 30:122 years of Moore’s Law: 每一美元產(chǎn)生的算力

有些人認(rèn)為,由于物理學(xué)的限制,計(jì)算能力不能保持這種上升趨勢。然而,過去的趨勢并不支持這一理論。隨著時(shí)間的推移,該領(lǐng)域的資金和資源也在增加,越來越多人才進(jìn)入該領(lǐng)域,因?yàn)?涌現(xiàn) 的效應(yīng),會開發(fā)更好的 軟件(算法模型等)和 硬件。而且,物理學(xué)的限制同樣約束人腦的能力極限,所以 AGI 可以實(shí)現(xiàn)。

當(dāng) AI 變得比人類更聰明、我們稱這一刻為 奇點(diǎn)。一些人預(yù)測,奇點(diǎn)最快將于 2045 年到來。Nick Bostrom 和 Vincent C. Müller 在 2017 年的一系列會議上對數(shù)百名 AI 專家進(jìn)行了調(diào)查,奇點(diǎn)(或人類水平的機(jī)器智能)會在哪一年發(fā)生,得到的答復(fù)如下:

樂觀預(yù)測的年份中位數(shù) (可能性 10%) - 2022

現(xiàn)實(shí)預(yù)測的年份中位數(shù) (可能性 50%) - 2040

悲觀預(yù)測的年份中位數(shù) (可能性 90%) - 2075

因此,在 AI 專家眼里很有可能在未來的 20 年內(nèi),機(jī)器就會像人類一樣聰明。

這意味著對于每一項(xiàng)任務(wù),機(jī)器都將比人類做得更好;當(dāng)計(jì)算機(jī)超過人類時(shí),一些人認(rèn)為,他們就可以繼續(xù)變得更好。換句話說,如果我們讓機(jī)器和我們一樣聰明,沒有理由不相信它們能讓自己變得更聰明,在一個(gè)不斷改進(jìn)的 機(jī)器之心進(jìn)化的螺旋中,會導(dǎo)致 超級智能 的出現(xiàn)。

從工具進(jìn)化到數(shù)字生命

按照上面的專家預(yù)測,機(jī)器應(yīng)該具有自我意識和超級智能。到那時(shí),我們對機(jī)器意識的概念將有一些重大的轉(zhuǎn)變,我們將面對真正的數(shù)字生命形式(DILIs - Digital Lifeforms)。

一旦你有了可以快速進(jìn)化和自我意識的 DILIs,圍繞物種競爭會出現(xiàn)了一些有趣的問題。DILIs 和人類之間的合作和競爭的基礎(chǔ)是什么?如果你讓一個(gè)有自我意識的 DILIs 能模擬疼痛,你是在折磨一個(gè)有感知的生命嗎?

這些 DILIs 將能夠在服務(wù)器上進(jìn)行自我復(fù)制和編輯(應(yīng)該假設(shè)在某個(gè)時(shí)候,世界上的大多數(shù)代碼將由可以自我復(fù)制的機(jī)器來編寫),這可能會加速它們的進(jìn)化。想象一下,如果你可以同時(shí)創(chuàng)建 100,000,000 個(gè)你自己的克隆體,修改你自己的不同方面,創(chuàng)建你自己的功能函數(shù)和選擇標(biāo)準(zhǔn),DILIs 應(yīng)該能夠做到這一切(假設(shè)有足夠的算力和能量資源)。關(guān)于 DILIs 這個(gè)有趣的話題在《Life 3.0》和《Superintelligence: Paths, Dangers, Strategies》這兩本書中有詳細(xì)的討論。

這些問題可能比我們的預(yù)期來得更快。Elad Gil 在他的最新文章《AI Revolution》提到 OpenAI、Google 和各種創(chuàng)業(yè)公司的核心 AI 研究人員都認(rèn)為,真正的 AGI 還需要 5 到 20 年的時(shí)間才能實(shí)現(xiàn),這也有可能會像自動駕駛一樣永遠(yuǎn)都在五年后實(shí)現(xiàn)。不管怎樣,人類最終面臨的潛在生存威脅之一,就是與我們的數(shù)字后代競爭。

歷史學(xué)家 Thomas Kuhn 在其著名的《The Structure of Scientific Revolutions》一書中認(rèn)為,大多數(shù)科學(xué)進(jìn)步是基于廣泛接受的理論框架,他稱之為 科學(xué)范式。偶爾,一個(gè)既定的范式被推翻,被一個(gè)新的范式所取代 - Kuhn 稱之為 科學(xué)革命。我們正處在 AI 的智能革命之中!

最后,送上一首 AI 創(chuàng)作的曲子《I Am AI》,Nvidia 每年的 GTC 大會上都會更新一次內(nèi)容,看看 AI 如何從各個(gè)行業(yè)滲透到我們的生活。

參考

  • Letter from Alan Turing to W Ross Ashby - Alan Mathison Turing

  • Software 2.0 - Andrej Karpathy

  • The Rise of Software 2.0 - Ahmad Mustapha

  • Infrastructure 3.0: Building blocks for the AI revolution - Lenny Pruss, Amplify Partners

  • Will Transformers Take Over Artificial Intelligence? - Stephen Ornes

  • AI Revolution - Transformers and Large Language Models (LLMs) - Elad Gil

  • What Is a Transformer Model? - RICK MERRITT

  • AI 時(shí)代的巫師與咒語 - Rokey Zhang

  • Generative AI: A Creative New World - SONYA HUANG, PAT GRADY AND GPT-3

  • What Real-World AI From Tesla Could Mean - CleanTechNica

  • A Look at Tesla's Occupancy Networks - Think Autonomous

  • By Exploring Virtual Worlds, AI Learns in New Ways - Allison Whitten

  • Self-Taught AI Shows Similarities to How the Brain Works - Anil Ananthaswamy

  • How Transformers Seem to Mimic Parts of the Brain - Stephen Ornes

  • Attention Is All You Need - PAPER by Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N. Gomez, Lukasz Kaiser, Illia Polosukhin

  • On the Opportunities and Risks of Foundation Models - PAPER by CRFM & HAI of Stanford University

  • Making Things Think - BOOK by Giuliano Giacaglia

  • A Thousand Brains(中文版:千腦智能)- BOOK by  Jeff Hawkins

本文來自微信公眾號:INDIGO 的數(shù)字鏡像 (ID:indigo-dm),作者:JEDI LU

廣告聲明:文內(nèi)含有的對外跳轉(zhuǎn)鏈接(包括不限于超鏈接、二維碼、口令等形式),用于傳遞更多信息,節(jié)省甄選時(shí)間,結(jié)果僅供參考,IT之家所有文章均包含本聲明。

軟媒旗下網(wǎng)站: IT之家 最會買 - 返利返現(xiàn)優(yōu)惠券 iPhone之家 Win7之家 Win10之家 Win11之家

軟媒旗下軟件: 軟媒手機(jī)APP應(yīng)用 魔方 最會買 要知