設置
  • 日夜間
    隨系統(tǒng)
    淺色
    深色
  • 主題色

英偉達黃仁勛疊 BUFF!在家就能微調(diào)大模型、一鍵構建元宇宙,GH200 大幅降低大語言模型推理成本

2023/8/9 8:22:08 來源:網(wǎng)易科技 作者:趙芙瑤 責編:遠洋

購置芯片,買的越多,省得越多?只需一臺電腦,在家就能微調(diào)大模型?從前費時費力又燒錢的元宇宙,如今用生成式 AI 已經(jīng)可以快速生成數(shù)字孿生模型,迅速構建虛擬世界?

8 月 8 日,皮衣教主黃仁勛帶著英偉達的一系列更新,在 SIGGRAPH 現(xiàn)場發(fā)表 NVIDIA 主題演講。SIGGRAPH 是計算機圖形學的年度頂級會議,也是計算機圖形學和交互技術領域的一個重要組織。

而英偉達自 1993 年創(chuàng)立以來,在計算機圖形學領域扎根,推動著圖形處理器(GPU)技術的發(fā)展,包括實時光線追蹤技術的突破、多核與眾核處理器創(chuàng)新以及在人工智能和深度學習領域加速算法的訓練和推理。這也是時隔五年后,皮衣教主黃仁勛再一次登上 SIGGRAPH 的演講臺。

那么此次演講,皮衣教主給各路看客帶來了哪些驚喜?劃重點了!

一、GH200+Grace Hopper:降低大語言模型推理成本

今年五月,英偉達發(fā)布了 GH200 系統(tǒng),專為處理大規(guī)模的生成式人工智能(Generative AI)工作負載而設計。GH200 將 256 個 NVIDIA Grace Hopper? Superchip 完全連接成一個單一的 GPU,可以支持處理大規(guī)模的推薦系統(tǒng)、生成式人工智能和圖分析等領域的模型。

此次演講,黃仁勛又詳細介紹了自己“如數(shù)家珍”的 GH200,在他看來,未來的前沿模型將會在大規(guī)模系統(tǒng)上進行訓練和應用。每個節(jié)點上都會有一個單一的 Grace Hopper,這種架構在過去 60 年來一直是計算的方式,現(xiàn)在在加速計算和 AI 計算方面將成為主流,未來將使得前沿模型能夠更好地進行訓練和應用。

也就是說,此類系統(tǒng)可以進行普適性應用,未來的前沿模型將成為各種應用的前端。每個應用程序、每個數(shù)據(jù)庫,在與計算機交互時,都可能首先與一個大型語言模型進行交互。這些模型將理解用戶的意圖、愿望和特定情境,并以最佳方式呈現(xiàn)信息。這種模型將進行智能查詢和搜索,甚至可能用于音樂生成等領域?!霸谟嬎愕奈磥恚铀儆嬎愫?AI 計算將成為主流?!秉S仁勛信心滿滿的展望道。

在能源效率和成本效益方面,黃仁勛反復強調(diào):“買的越多,省得越多”。這可不是“信口開河”,加速計算在生成式 AI 應用程序的能源效率和成本效益方面相當于 20 倍的 Moore 定律和目前的 CPU 擴展方式。Moore 定律是由英特爾創(chuàng)始人之一戈登?摩爾提出的觀點。其核心內(nèi)容是,集成電路上可以容納的晶體管數(shù)量,大約每隔 18 個月到 24 個月就會增加一倍。換句話說,處理器的性能大約每兩年翻一倍,同時價格下降為之前的一半。那么,20 倍的 Moore 定律是什么概念?

黃仁勛舉了一個生動的例子:具體來說,打造一個數(shù)據(jù)中心,使用通用計算的 GPU 需要 1 億美元,而使用加速計算的 Grace Hopper 僅需 800 萬美元。而且使用通用計算的能耗是兆瓦級別,而使用 Grace Hopper 僅需 262 千瓦(即 262,000 瓦),能耗減少了 20 倍。成本方面,使用 Grace Hopper 相較通用計算成本減少了 12 倍。使用加速計算可以顯著降低能耗,同時大幅降低成本。也就是說購買越多 GH200,節(jié)省的成本就越多。

二、 進擊的 Omniverse:元宇宙觸手可及?

在生成式 AI 現(xiàn)在可以自動生成數(shù)字孿生模型之前,數(shù)字孿生模型的構建是一個相對復雜的過程,涉及多維虛擬模型和融合數(shù)據(jù)的驅動。無論是多維虛擬模型構建、數(shù)據(jù)采集與傳感器集成還是模型融合和校準、交互式仿真和優(yōu)化等流程,以往的數(shù)字孿生模型構建過程更多地依賴于專業(yè)人員的經(jīng)驗和手動操作,需要將實際數(shù)據(jù)與虛擬模型進行集成和校準,以實現(xiàn)監(jiān)控、仿真、預測和優(yōu)化等功能。

這樣的制作過程,別說是個人,就連許多“財大氣粗”的企業(yè)也望而卻步。然而,英偉達 Omniverse 的更新讓數(shù)字孿生的門檻進一步降低,目前開發(fā)者、企業(yè)和行業(yè)已經(jīng)能夠使用 OpenUSD 框架和生成式 AI 優(yōu)化改進 3D 流程,也就是說,開發(fā)者可以隨意在 Omniverse 上制作自己的專屬虛擬助理和數(shù)字人,企業(yè)也可以在此平臺上自動生成產(chǎn)品的數(shù)字孿生廣告大片。

黃仁勛現(xiàn)場展示了世界上最大的廣告公司 WPP 與電動汽車制造商比亞迪基于 Omniverse 的合作。OmniVerse Cloud 允許比亞迪使用高保真數(shù)據(jù)創(chuàng)建實時數(shù)字孿生體,從而實現(xiàn)物理精確的模擬。WPP 的藝術家可以在同一環(huán)境中使用 AutoDesk、Adobe 和 SideFX 等工具進行無縫協(xié)作,使得比亞迪可以通過 OmniVerse Cloud 連接不同時間和空間的設計師和開發(fā)者,從而快速構建具有物理級準確性的虛擬世界。

來感受下生成的炫酷數(shù)字孿生大片,汽車顏色與場景都可以隨意變換,上一秒還是黑色,下一秒就能變?yōu)榧t色,上一個畫面還在草原,下一幀就直接出現(xiàn)在雪地!

黃仁勛進一步介紹道,Open USD 技術使 WPP 能夠創(chuàng)建一個超級數(shù)字孿生體,將所有可能的變化整合到一個單一資產(chǎn)中。這個數(shù)字孿生體部署在 Universe Class GDNA 網(wǎng)絡上,實現(xiàn)了完全交互式的三維配置器,可以將高保真度的實時三維體驗傳送到全球 100 多個地區(qū)的設備上。該解決方案還可以生成個性化的內(nèi)容,用于全球營銷活動,USD 模型位于三維環(huán)境中,可以使用現(xiàn)實世界中的掃描數(shù)據(jù)或生成式 AI 工具進行創(chuàng)建。

同時,Machinima 應用也得到了更新,以幫助用戶更好地構建逼真的虛擬形象。引入了 NVIDIA Omniverse Avatar Cloud Engine (ACE),以及新的 Omniverse 連接器和應用,這使用戶可以輕松地構建和自定義虛擬助理和數(shù)字人。

目前,Omniverse 用戶已經(jīng)可以通過 OmniLive 增強 USD(Universal Scene Description)工作流中的交互,將真實世界的實時準確性引入 3D 虛擬世界。

三、AI Workbench:在家就能 Fine-tune,AI 幫你疊 BUFF?

只需一臺電腦,在家就可以測試、微調(diào)大模型?用皮衣教主黃仁勛的話來總結就是:“人人都可以生成 AI”。

這已經(jīng)不是天方夜譚,黃仁勛此次現(xiàn)場宣布英偉達發(fā)布了全新的統(tǒng)一工作空間,名為 NVIDIA AI Workbench。該平臺為開發(fā)者提供了一個統(tǒng)一、易用的工作空間,使他們能夠在個人電腦或工作站上快速創(chuàng)建、測試和微調(diào)生成式 AI 模型,然后將這些模型擴展到幾乎所有數(shù)據(jù)中心、公有云或 DGX Cloud。

與此同時,黃仁勛宣布 NVIDIA 將與初創(chuàng)企業(yè) Hugging Face 一起為數(shù)百萬開發(fā)者提供生成式 AI 超級計算,幫助他們構建大型語言模型等高級 AI 應用。開發(fā)者將能夠使用 Hugging Face 平臺內(nèi)的 NVIDIA DGX Cloud AI 超級計算訓練和調(diào)整高級 AI 模型。

具體而言,AI Workbench 和 Hugging Face 將怎樣幫打工人解放雙手呢?

NVIDIA 基于新一代 Ada Lovelace 架構的 NVIDIA RTX 6000 工作站 GPU,為設計師和創(chuàng)作者提供了具有 2-4 倍性能提升的強大工具。這款 GPU 可以使設計師和工程師能夠驅動先進的基于模擬的工作流程,構建和驗證更復雜的設計。藝術家可以將敘事推向新的高度,創(chuàng)造更引人入勝的內(nèi)容,構建沉浸式虛擬環(huán)境??茖W家、研究人員和醫(yī)療專業(yè)人員可以在工作站上利用超級計算能力來加速開發(fā)生命救助藥物和程序,其性能達到上一代 RTX A6000 的 2-4 倍。

NVIDIA 的 RTX 6000 Ada Generation GPU 則采用了 Ada 架構 AI 和可編程著色器技術,可為神經(jīng)圖形和高級虛擬世界模擬提供理想的平臺,可用于使用 NVIDIA Omniverse Enterprise 創(chuàng)建元宇宙內(nèi)容和工具。

除了 RTX 6000 之外,NVIDIA 還推出了三款全新的工作站 GPU:RTX 5000、RTX 4500 和 RTX 4000,這些新產(chǎn)品在規(guī)格上各有不同。RTX 5000 采用了 AD102 芯片,是 RTX 6000 的削減版本,提供 12800 CUDA 核心和 32GB GPU 內(nèi)存。RTX 4500 采用了 AD104 芯片,擁有 24GB GPU 內(nèi)存。而 RTX 4000 是入門級的工作站 GPU,采用了 20GB GPU 內(nèi)存和 6144 CUDA 核心。這些新 GPU 將為設計師、創(chuàng)作者和工程師提供更廣泛的選擇,以滿足不同領域的需求。也就是說,有了 AI Workbench 和 Hugging Face,打工人完全可以疊 BUFF,利用平臺完成更加精細、更加復雜的內(nèi)容。

毫無疑問的是,NVIDIA 無論在生成式人工智能、數(shù)字孿生建模方面的進展還是 AI Workbench 的推出以及與 Hugging Face 的合作,都是在推動人工智能、虛擬現(xiàn)實以及內(nèi)容創(chuàng)作的未來,降低生成式 AI 的門檻,讓“不會用 AI 的低成本用上 AI,會用 AI 的用的更加嫻熟并更加節(jié)省成本”,給諸多行業(yè)提供“加速器”。皮衣教主黃仁勛,正在人工智能、圖形和模擬領域不斷推動技術的邊界,帶來新的驚喜。

廣告聲明:文內(nèi)含有的對外跳轉鏈接(包括不限于超鏈接、二維碼、口令等形式),用于傳遞更多信息,節(jié)省甄選時間,結果僅供參考,IT之家所有文章均包含本聲明。

相關文章

軟媒旗下網(wǎng)站: IT之家 最會買 - 返利返現(xiàn)優(yōu)惠券 iPhone之家 Win7之家 Win10之家 Win11之家

軟媒旗下軟件: 軟媒手機APP應用 魔方 最會買 要知