【新智元導(dǎo)讀】剛剛,老黃又高調(diào)向全世界秀了一把:已經(jīng)量產(chǎn)的 Blackwell,8 年內(nèi)將把 1.8 萬億參數(shù) GPT-4 的訓(xùn)練能耗狂砍到 1/350;英偉達(dá)驚人的產(chǎn)品迭代,直接原地沖破摩爾定律;Blackwell 的后三代路線圖,也一口氣被放出。
就在剛剛,老黃手持 Blackwell 向全世界展示的那一刻,全場的觀眾沸騰了。它,是迄今為止世界最大的芯片!
如果用老黃的話說,它就是「全世界迄今為止制造出來的最復(fù)雜、性能最高的計算機(jī)。」
英偉達(dá)產(chǎn)品的迭代速度,已經(jīng)徹底無視摩爾定律。
就如網(wǎng)友所言,無所謂,老黃有自己的摩爾定律。
一手硬件,一手 CUDA,老黃胸有成竹地穿過「計算通貨膨脹」,放出豪言預(yù)測道 —— 在不久的將來,每一個處理密集型應(yīng)用都將被加速,每一個數(shù)據(jù)中心也肯定會被加速。
「買得越多,省得越多」的黃式數(shù)學(xué)公式,也再次亮相。
全新計算時代開啟
演講開篇,老黃最先放出了一個 Omniverse 模擬世界中的演示。
他表示,「英偉達(dá)正處于計算機(jī)圖形模擬和人工智能的交叉點(diǎn)上。這是我們的『靈魂』」。
這一切都是物理世界中的模擬,它的實(shí)現(xiàn),得益于兩項基本的技術(shù) —— 加速計算和人工智能,將重塑計算機(jī)產(chǎn)業(yè)。
到目前為止,計算機(jī)行業(yè)已有 60 多年的歷史,而現(xiàn)在,一個全新的計算時代已然開始。
1964 年,IBM 的 System 360 首次引入了 CPU,通用計算通過操作系統(tǒng)將硬件和軟件分離。架構(gòu)兼容性、向后兼容性等等,所有我們今天所了解的技術(shù),都是從這個時間點(diǎn)而來。
直到 1995 年,PC 革命開啟讓計算走進(jìn)千家萬戶,更加民主化。2007 年,iPhone 推出直接把「電腦」裝進(jìn)了口袋,并實(shí)現(xiàn)了云端鏈接。
可以看出,過去 60 年里,我們見證了 2-3 個推動計算行業(yè)轉(zhuǎn)變的重要技術(shù)節(jié)點(diǎn)。
加速計算:一手 GPU,一手 CUDA
而如今,我們將再一次見證歷史。老黃表示,「有兩個最基礎(chǔ)的事情正發(fā)生」。
首先是處理器,性能擴(kuò)展已經(jīng)大大放緩,而我們所需的計算量、需要處理的數(shù)據(jù)都在呈指數(shù)級增長。按老黃的話來說,我們正經(jīng)歷著「計算通貨膨脹」。
過去的 20 年里,英偉達(dá)一直在研究加速計算。比如,CUDA 的出現(xiàn)加速了 CPU 負(fù)載。事實(shí)上,專用的 GPU 效果會更好。
當(dāng)我們運(yùn)行一個應(yīng)用程序,不希望是一個運(yùn)行 100 秒,甚至是 100 個小時的 App。
因此,英偉達(dá)首創(chuàng)了異構(gòu)計算,讓 CPU 和 GPU 并行運(yùn)行,將過去的 100 個時間單位,加速到僅需要 1 個時間單位。
可見,它已經(jīng)實(shí)現(xiàn)了 100 倍速率提升,而功耗僅增加的 3 倍,成本僅為原來的 1.5 倍。
英偉達(dá)同時為價值十億美元的數(shù)據(jù)中心,配備了 5 億美元的 GPU,讓其變成了「AI 工廠」。
有了加速計算,世界上許多公司可以節(jié)省數(shù)億美元在云端處理數(shù)據(jù)。這也印證了老黃的「數(shù)學(xué)公式」,買得越多,省得越多。
除了 GPU,英偉達(dá)還做了業(yè)界難以企及的事,那就是重寫軟件,以加速硬件的運(yùn)行。
如下圖所示,從深度學(xué)習(xí) cuDNN、物理 Modulus、通信 Aerial RAN、基因序列 Parabricks,到 QC 模擬 cuQUANTUM、數(shù)據(jù)處理 cuDF 等領(lǐng)域,都有專用的 CUDA 軟件。
也就是說,沒有 CUDA,就等同于計算機(jī)圖形處理沒有 OpenGL,數(shù)據(jù)處理沒有 SQL。
而現(xiàn)在,采用 CUDA 的生態(tài)遍布世界各地。就在上周,谷歌宣布將 cuDF 加入谷歌云中,并加速世界上受歡迎的數(shù)據(jù)科學(xué)庫 Pandas。
而現(xiàn)在,只需要點(diǎn)擊一下,就可以在 CoLab 中使用 Pandas。就看這數(shù)據(jù)處理速度,簡直快到令人難以置信。
老黃表示,要推行一個全新的平臺是「蛋和雞」的困境,開發(fā)者和用戶,缺一不可。
但是經(jīng)過 20 年的發(fā)展,CUDA 已經(jīng)打破了這個困境,通過全球 500 萬開發(fā)者和無數(shù)領(lǐng)域的用戶實(shí)現(xiàn)了良性循環(huán)。
有越多人安裝 CUDA,運(yùn)行的計算量越大,他們就越能據(jù)此改進(jìn)性能,迭代出更高效、更節(jié)能的 CUDA。
「AI 工廠」全棧重塑
2012 年,神經(jīng)網(wǎng)絡(luò) AlexNet 的誕生,將英偉達(dá)第一次與 AI 聯(lián)系起來。我們都知道,AI 教父 Hinton 和高徒當(dāng)時在 2 個英偉達(dá) GPU 上完成 AlexNet 的訓(xùn)練。
深度學(xué)習(xí)就此開啟,并以超乎想像的速度,擴(kuò)展幾十年前發(fā)明的算法。
但由于,神經(jīng)網(wǎng)絡(luò)架構(gòu)不斷 scaling,對數(shù)據(jù)、計算量「胃口」愈加龐大,這就不得不需要英偉達(dá)重新發(fā)明一切。
2012 年之后,英偉達(dá)改變了 Tensor Core,并發(fā)明了 NvLink,還有 TensorRT、Triton 推理服務(wù)器等等,以及 DGX 超算。
當(dāng)時,英偉達(dá)的做法沒有人理解,更沒人愿意為之買單。由此,2016 年,老黃親自將英偉達(dá)首個 DGX 超算送給了位于舊金山的一家「小公司」OpenAI。
從那之后,英偉達(dá)在不斷擴(kuò)展,從一臺超算、到一個超大型數(shù)據(jù)中心。
直到,2017 年 Transformer 架構(gòu)誕生,需要更大的數(shù)據(jù)訓(xùn)練 LLM,以識別和學(xué)習(xí)一段時間內(nèi)連續(xù)發(fā)生的模式。
之后,英偉達(dá)建造了更大的超算。2022 年 11 月,在英偉達(dá)數(shù)萬個 GPU 上完成訓(xùn)練的 ChatGPT 橫空出世,能夠像人類一樣交互。
這是世界第一次看到了生成式 AI。它會一次輸出一個 token,可以是圖像、語音、文字、視頻,甚至是天氣 token,全部都是關(guān)于生成。
老黃表示,「我們可以學(xué)習(xí)的一切,現(xiàn)在都可以生成。我們現(xiàn)在已經(jīng)進(jìn)入了一個全新的生成式 AI 時代」。
當(dāng)初,那個作為超算出現(xiàn)的計算機(jī),已經(jīng)變成了數(shù)據(jù)中心。它可以輸出 token,搖身一變成為了「AI 工廠」。而這個「AI 工廠」,正在創(chuàng)造和生產(chǎn)巨大價值的東西。
19 世紀(jì) 90 年代末,尼古拉?特斯拉發(fā)明了 AC Generator,而現(xiàn)在,英偉達(dá)正創(chuàng)造可以輸出 token 的 AI Generator。
英偉達(dá)給世界帶來的是,加速計算正引領(lǐng)新一輪產(chǎn)業(yè)革命。
人類首次實(shí)現(xiàn)了,僅靠 3 萬億美元的 IT 產(chǎn)業(yè),創(chuàng)造出能夠直接服務(wù)于 100 萬億美元產(chǎn)業(yè)的一切東西。
傳統(tǒng)的軟件工廠,到如今 AI 工廠的轉(zhuǎn)變,實(shí)現(xiàn)了 CPU 到 GPU,檢索到生成,指令到大模型,工具到技能的升級。
可見,生成式 AI 推動了全棧的重塑。
從 Blackwell GPU 到超級「AI 工廠」
接下來就讓我們看看,英偉達(dá)是如何將一顆顆地表最強(qiáng)的 Blackwell 芯片,變成一座座超級「AI 工廠」的。
注意看,下面這塊是搭載了 Blackwell GPU 的量產(chǎn)級主板。
老黃手指的這里是 Grace CPU。
而在這里,我們可以清晰地看到,兩個連在一起的 Blackwell 芯片。
在 8 年里,每一代英偉達(dá)芯片的 Flops,都增長了 1000 倍。
與此同時,摩爾定律在這 8 年里,卻似乎逐漸失效了。
即使和摩爾定律最好的時刻相比,Blackwell 算力的提升也是驚人的。這將直接導(dǎo)致的結(jié)果,就是成本的顯著下降。
比如,訓(xùn)練一個 1.8 萬億參數(shù)、8 萬億 token 的 GPT-4 所用的能耗,直接降至 1/350!
Pascal 需要消耗的,是 1000 吉瓦時,這就意味著,它需要一個 1000 吉瓦的數(shù)據(jù)中心。(1 吉瓦 = 1000 兆瓦)
而且如果這樣的數(shù)據(jù)中心真的存在的話,訓(xùn)練也 GPT-4 也需要整整一個月的時間。而 100 兆瓦的數(shù)據(jù)中心,大概需要一年。
這也就是為什么,ChatGPT 這樣的 LLM,在八年前是根本不可能存在的。
如今有了 Blackwell,過去的 1000 吉瓦時直接可以降到 3 吉瓦時??梢哉f,Blackwell 就是為了推理,為了生成 token 而生的。它直接將每 token 的能量降低了 45000 倍。
在以前,用 Pascal 產(chǎn)生 1 個 token 的消耗,相當(dāng)于兩個 200 瓦的燈泡運(yùn)行 2 天。讓 GPT-4 生成一個單詞,大概需要 3 個 token。這根本不可能讓我們得到如今和 GPT-4 聊天的體驗。
而現(xiàn)在,我們每個 token 可以只使用 0.4 焦耳,用很少的能量,就能產(chǎn)生驚人的 token。
它誕生的背景,正是運(yùn)算模型規(guī)模的指數(shù)級增長。每一次指數(shù)級增長,都進(jìn)入一種嶄新的階段。
當(dāng)我們從 DGX 擴(kuò)展到大型 AI 超算,Transformer 可以在大規(guī)模數(shù)據(jù)集上訓(xùn)練。
而下一代 AI,則需要理解物理世界。然而如今大多數(shù) AI 并不理解物理規(guī)律。其中一種解決辦法,是讓 AI 學(xué)習(xí)視頻資料,另一種,則是合成數(shù)據(jù)。
第三種,則是讓計算機(jī)互相學(xué)習(xí)!本質(zhì)上就和 AlphaGo 的原理一樣。
巨量的計算需求涌來,如何解決?目前的辦法就是 —— 我們需要更大的 GPU。而 Blackwell,正是為此而生。
Blackwell 中,有幾項重要的技術(shù)創(chuàng)新。
第一項,就是芯片的尺寸。
英偉達(dá)將兩塊目前能造出來的最大尺寸的芯片,用一條 10TB / s 的鏈路鏈接起來;然后再把它們放到同一個計算節(jié)點(diǎn)上,和一塊 Grace CPU 相連。
在訓(xùn)練時,它被用于快速檢查點(diǎn);而在推理和生成的場景,它可以用于儲存上下文內(nèi)存。
而且,這種第二代 GPU 還有高度的安全性,我們在使用時完全可以要求服務(wù)器保護(hù) AI 不受偷竊或篡改。
并且,Blackwell 中采用的是第 5 代 NVLink。而且,它是第一代可信賴、可使用的引擎,
通過該系統(tǒng),我們可以測試每一個晶體管、觸發(fā)器、片上內(nèi)存和片外內(nèi)存,因此我們可以當(dāng)場確定某個芯片是否出現(xiàn)故障。
基于此,英偉達(dá)將擁有十萬個 GPU 超算的故障間隔時間,縮短到了以分鐘為單位。
因此,如果我們不發(fā)明技術(shù)來提高超算的可靠性,那么它就不可能長期運(yùn)行,也不可能訓(xùn)練出可以運(yùn)行數(shù)月的模型。
如果提高可靠性,就會提高模型正常的運(yùn)行時間,而后者顯然會直接影響成本。
最后,老黃表示,解壓縮引擎的數(shù)據(jù)處理,也是英偉達(dá)必須做的最重要的事之一。通過增加數(shù)據(jù)壓縮引擎、解壓縮引擎,就能以 20 倍的速度從存儲中提取數(shù)據(jù),比現(xiàn)在的速度要快得多。
超強(qiáng)風(fēng)冷 DGX & 全新液冷 MGX
Blackwell 是一個重大的躍進(jìn),但對老黃來說,這還不夠大。
英偉達(dá)不僅要做芯片,還要制造搭載最先進(jìn)芯片的服務(wù)器。擁有 Blackwell 的 DGX 超算,在各方面都實(shí)現(xiàn)了能力躍升。
集成了 Blackwell 芯片的最新 DGX,能耗僅比上一代 Hopper 提升了 10 倍,但 FLOPS 量級卻提升了 45 倍。
下面這個風(fēng)冷的 DGX Blackwell,里面有 8 個 GPU。
而對應(yīng)散熱器的尺寸也很驚人,達(dá)到了 15kW,并且是完全的風(fēng)冷。
如果你喜歡部署液冷系統(tǒng)呢?英偉達(dá)也有新型號 MGX。
單個 MGX 同時集成 72 個 Blackwell GPU,且有最新的第五代 NVLink 每秒 130TB 的傳輸速度。
介紹完芯片,老黃特意提到了英偉達(dá)研發(fā)的 NVLink 技術(shù),這也是英偉達(dá)的主板可以越做越大的重要原因。
由于 LLM 參數(shù)越來越多、越來越消耗內(nèi)存,想要把模型塞進(jìn)單個 GPU 已經(jīng)幾乎是不可能的事情,必需搭建集群。其中,GPU 通信技術(shù)的重要性不亞于計算能力。
英偉達(dá)的 NVLink,是世界上最先進(jìn)的 GPU 互連技術(shù),數(shù)據(jù)傳輸速率可以堪稱瘋狂!
因為如今的 DGX 擁有 72 個 GPU,而上一代只有 8 個,讓 GPU 數(shù)直接增加了 9 倍。而帶寬量,則直接增加了 18 倍,AI FLops 增加了 45 倍,但功率僅僅增加了 10 倍,也即 100 千瓦。
下面這個 NVLink 芯片,也堪稱是奇跡。
人們之所以意識到它的重要性,是因為它將所有這些不同的 GPU 連接在一起,從而能夠讓十萬億參數(shù)的 LLM 運(yùn)行起來。
500 億個晶體管,74 個端口,每個端口 400GB,7.2TB 每秒的橫截面帶寬,這本身就是個奇跡。
而更重要的是,NVLink 內(nèi)部還具有數(shù)學(xué)功能,可以實(shí)現(xiàn)歸約。對于芯片上的深度學(xué)習(xí),這尤其重要。
有趣的是,NVLink 技術(shù),大大拓寬了我們對于 GPU 的想象。
比如在傳統(tǒng)的概念中,GPU 應(yīng)該長成這樣。
但有了 NVLink,GPU 也可以變成這么大。
支撐著 72 個 GPU 的骨架,就是 NVLink 的 5000 根電纜,能夠在傳輸方面節(jié)省 20kw 的功耗用于芯片計算。
老黃拿在手里的,是一個 NVLink 的主干,用老黃的原話說,它是一個「電氣機(jī)械奇跡」
NVLink 做到的僅僅是將不同 GPU 芯片連接在一起,于是老黃又說了一句「這還不夠宏大」。
要連接超算中心內(nèi)不同的主機(jī),最先進(jìn)的技術(shù)是「無限帶寬」(InfiniBand)。但很多數(shù)據(jù)中心的基礎(chǔ)設(shè)施和生態(tài),都是基于曾經(jīng)使用的以太網(wǎng)構(gòu)建的,推倒重來的成本過高。
因此,為了幫助更多的數(shù)據(jù)中心順利邁進(jìn) AI 時代,英偉達(dá)研發(fā)了一系列與 AI 超算適配的以太交換機(jī)。
網(wǎng)絡(luò)級 RDMA、阻塞控制、適應(yīng)性路由、噪聲隔離,英偉達(dá)利用自己在這四項技術(shù)上的頂尖地位,將以太網(wǎng)改造成了適合 GPU 之間點(diǎn)對點(diǎn)通信的網(wǎng)絡(luò)。
由此也意味著,數(shù)百萬 GPU 數(shù)據(jù)中心的時代,即將到來。
全球 2800 萬開發(fā)者,即時部署 LLM
在英偉達(dá)的 AI 工廠中,運(yùn)行著可以加速計算推理的新型軟件 ——NIM。
老黃表示,「我們創(chuàng)建的是容器里的 AI」。
這個容器里有大量的軟件,其中包括用于推理服務(wù)的 Triton 推理服務(wù)器、優(yōu)化的 AI 模型、云原生堆棧等等。
現(xiàn)場,老黃再一次展示了全能 AI 模型 —— 可以實(shí)現(xiàn)全模態(tài)互通。有了 NIM,這一切都不是問題。
它可以提供一種簡單、標(biāo)準(zhǔn)化的方式,將生成式 AI 添加到應(yīng)用程序中,大大提高開發(fā)者的生產(chǎn)力。
現(xiàn)在,全球 2800 萬開發(fā)者都可以下載 NIM 到自己的數(shù)據(jù)中心,托管使用。
未來,不再耗費(fèi)數(shù)周的時間,開發(fā)者們可以在幾分鐘內(nèi),輕松構(gòu)建生成式 AI 應(yīng)用程序。
與此同時,NIM 還支持 Meta Llama 3-8B,可以在加速基礎(chǔ)設(shè)施上生成多達(dá) 3 倍的 token。
這樣一來,企業(yè)可以使用相同的計算資源,生成更多的響應(yīng)。
而基于 NIM 打造的各類應(yīng)用,也將迸發(fā)涌現(xiàn),包括數(shù)字人、智能體、數(shù)字孿生等等。
老黃表示,「NVIDIA NIM 集成到各個平臺中,開發(fā)人員可以隨處訪問,隨處運(yùn)行 —— 正在幫助技術(shù)行業(yè)使生成式 AI 觸手可及」。
智能體組隊,萬億美元市場
而智能體,是未來最重要的應(yīng)用。老黃稱,幾乎每個行業(yè)都需要客服智能體,有著萬億美元的市場前景。
可以看到,在 NIM 容器之上,大多數(shù)智能體負(fù)責(zé)推理,去弄清任務(wù)并將其分解成多個子任務(wù)。還有一些,它們負(fù)責(zé)檢索信息、搜索,甚至是使用工具等。
所有智能體,組成了一個 team。
未來,每家公司都將有大量的 NIM 智能體,通過連接起來組成一個團(tuán)隊,完成不可能的任務(wù)。
GPT-4o 軀殼,老黃做出來了
在人機(jī)交互這方面,老黃和 Sam Altman 可以說是想到一起了。
他表示,雖然可以使用文字或語音形式的 prompt 給 AI 下達(dá)指令,但很多應(yīng)用中,我們還是需要更自然的、更類人的交互方式。
這指向了老黃的一個愿景 —— 數(shù)字人。相比現(xiàn)在的 LLM,它們可以更吸引人,更有同理心。
GPT-4o 雖是實(shí)現(xiàn)了無法比擬的類人交互,但缺少的是一個「軀體」。而這次,老黃都幫 OpenAI 想好了。
未來,品牌大使也不一定是「真人」,AI 完全可以勝任。
從客戶服務(wù),到廣告、游戲等各行各業(yè),數(shù)字人帶來的可能將是無限的。
連接 Gen AI 的 CG 技術(shù),還可以實(shí)時渲染出逼真的人類面部。低延遲的數(shù)字人處理,遍及全球超過 100 個地區(qū)。
這是由英偉達(dá) ACE 提供的魔力,能夠為創(chuàng)建栩栩如生的數(shù)字人,提供相應(yīng)的 AI 工具。
現(xiàn)在,英偉達(dá)計劃在 1 億臺 RTX AI 個人電腦和筆記本電腦上,部署 ACE PC NIM 微服務(wù)。
這其中包括英偉達(dá)首個小語言模型 —— Nemotron-3 4.5B,專為在設(shè)備上運(yùn)行而設(shè)計,具備與云端 LLM 相似的精度和準(zhǔn)確性。
此外,ACE 數(shù)字人類 AI 新套件還包括基于音軌生成身體手勢 ——NVIDIA Audio2Gesture,即將推出。
老黃表示,「數(shù)字人類將徹底改變各個行業(yè),ACE 提供的多模態(tài) LLM 和神經(jīng)圖形學(xué)的突破,使我們更接近意圖驅(qū)動計算的未來,與計算機(jī)的交互將如同與人類的交互一樣自然」。
預(yù)告下一代芯片 Rubin
Hopper 和 Blackwell 系列的推出,標(biāo)志著英偉達(dá)逐漸搭建起完整的 AI 超算技術(shù)棧,包括 CPU、GPU 芯片,NVLink 的 GPU 通信技術(shù),以及 NIC 和交換機(jī)組成的服務(wù)器網(wǎng)絡(luò)。
如果你愿意的話,可以讓整個數(shù)據(jù)中心都使用英偉達(dá)的技術(shù)。
這足夠大、足夠全棧了吧。但是老黃表示,我們的迭代速度還要加快,才能跟上 GenAI 的更新速度。
英偉達(dá)在不久前就曾放出消息,即將把 GPU 的迭代速度從原來的兩年一次調(diào)整為一年一次,要用最快的速度推進(jìn)所有技術(shù)的邊界。
今天的演講中,老黃再次實(shí)錘官宣 GPU 年更。但是他又緊跟著疊了個甲,說自己可能會后悔。
無論如何,我們現(xiàn)在知道了,英偉達(dá)不久后就會推出 Blackwell Ultra,以及明年的下一代的 Rubin 系列。
從孿生地球,到具身 AI 機(jī)器人
除了芯片和超算服務(wù)器,老黃還發(fā)布了一個所有人都沒有想到的項目 —— 數(shù)字孿生地球「Earth-2」。這也許是世界范圍內(nèi)最有雄心的項目(甚至沒有之一)。
而且根據(jù)老黃的口吻推測,Earth-2 已經(jīng)推進(jìn)了數(shù)年,今年取得的重大突破才讓他覺得,是時候亮出來了。
為什么要為建造整個地球的數(shù)字孿生?是要像小扎的元宇宙那樣,把社交和互動都搬到線上平臺嗎?
不,老黃的愿景更宏偉一些。他希望在 Earth-2 的模擬,可以預(yù)測整個星球的未來,從而幫我們更好地應(yīng)對氣候變化和各種極端天氣,比如可以預(yù)測臺風(fēng)的登陸點(diǎn)。
Earth-2 結(jié)合了生成式 AI 模型 CorrDiff,基于 WRF 數(shù)值模擬進(jìn)行訓(xùn)練,能以 12 倍更高的解析度生成天氣模型,從 25 公里范圍提高到 2 公里。
不僅解析度更高,而且相比物理模擬的運(yùn)行速度提高了 1000 倍,能源效率提高了 3000 倍,因此可以在服務(wù)器上持續(xù)運(yùn)行、實(shí)時預(yù)測。
而且,Earth-2 的下一步還要將預(yù)測精度從 2 公里提升到數(shù)十米,同時考慮城市內(nèi)的基礎(chǔ)設(shè)施,甚至可以預(yù)測到街道上什么時候會刮來強(qiáng)風(fēng)。
而且,英偉達(dá)想數(shù)字孿生的,不止是地球,還有整個物理世界。
對于這個狂飆突進(jìn)的 AI 時代,老黃大膽預(yù)測了下一波浪潮 —— 物理 AI,或者說是具身 AI。
它們不僅需要有超高的認(rèn)知能力,可以理解人類、理解物理世界,還要有極致的行動力,完成各種現(xiàn)實(shí)任務(wù)。
想象一下這個賽博朋克的未來:一群機(jī)器人在一起,像人類一樣交流、協(xié)作,在工廠里創(chuàng)造出更多的機(jī)器人。
而且,不僅僅是機(jī)器人。一切能移動的物體都會是自主的!
在多模態(tài) AI 的驅(qū)動下,它們可以學(xué)習(xí)、感知世界,理解人類指令,并進(jìn)化出計劃、導(dǎo)航以及動作技能,完成各種復(fù)雜任務(wù)。
那要怎樣訓(xùn)練這些機(jī)器人呢?如果讓他們在現(xiàn)實(shí)世界橫沖直撞,代價要比訓(xùn)練 LLM 大得多。
這時,數(shù)字孿生世界就大有用武之地了。
正像 LLM 可以通過 RLHF 進(jìn)行價值觀對齊一樣,機(jī)器人也可以在遵循物理規(guī)律的數(shù)字孿生世界中不斷試錯、學(xué)習(xí),模仿人類行為,最終達(dá)到通用智能。
Nvidia 的 Omniverse 可以作為構(gòu)建數(shù)字孿生的平臺,集成 Gen AI 模型、物理模擬以及動態(tài)實(shí)時的渲染技術(shù),成為「機(jī)器人健身房」。
志在做全棧的英偉達(dá)也不僅僅滿足于操作系統(tǒng)。他們還會提供用于訓(xùn)練模型的超算,以及用于運(yùn)行模型的 Jetson Thor 和 Orin。
為了適應(yīng)不同應(yīng)用場景下的機(jī)器人系統(tǒng),英偉達(dá)的 Omniverse 將逐步擴(kuò)展為 Warehouse 生態(tài)系統(tǒng)。
這個生態(tài)將無所不包,從搭配應(yīng)用程序的 SDK 和 API,到運(yùn)行邊緣 AI 計算的接口,再到最底層的可定制芯片。
在全棧產(chǎn)品方面,英偉達(dá)就是想要做自己的「全家桶」,讓別人無路可走。
為了讓這個 AI 機(jī)器人時代看起來更真實(shí),演示的最后,9 個和老黃有同樣身高的機(jī)器人一同登場。
正如老黃所說的,「這不是未來,這一切都正在發(fā)生」。
參考資料:
https://www.nvidia.cn/events/computex/?ncid=so-wech-642406
本文來自微信公眾號:新智元 (ID:AI_era),原標(biāo)題《老黃一口氣解密三代 GPU!粉碎摩爾定律打造 AI 帝國,量產(chǎn) Blackwell 解決 ChatGPT 全球耗電難題》
廣告聲明:文內(nèi)含有的對外跳轉(zhuǎn)鏈接(包括不限于超鏈接、二維碼、口令等形式),用于傳遞更多信息,節(jié)省甄選時間,結(jié)果僅供參考,IT之家所有文章均包含本聲明。