設(shè)置
  • 日夜間
    隨系統(tǒng)
    淺色
    深色
  • 主題色

4 萬(wàn)億晶體管 5nm 制程,全球最快 AI 芯片 WSE-3 碾壓 H100:?jiǎn)螜C(jī)可訓(xùn) 24 萬(wàn)億參數(shù) LLM,Llama 70B 一天搞定

新智元 2024/3/14 21:49:39 責(zé)編:清源

【新智元導(dǎo)讀】AI 世界的進(jìn)化快得有點(diǎn)跟不上了。剛剛,全球最強(qiáng)最大 AI 芯片 WSE-3 發(fā)布,4 萬(wàn)億晶體管 5nm 工藝制程。更厲害的是,WSE-3 打造的單個(gè)超算可訓(xùn)出 24 萬(wàn)億參數(shù)模型,相當(dāng)于 GPT-4 / Gemini 的十倍大。

全球最快、最強(qiáng)的 AI 芯片面世,讓整個(gè)行業(yè)瞬間驚掉了下巴!

AI 芯片初創(chuàng)公司 Cerebras 重磅發(fā)布了「第三代晶圓級(jí)引擎」(WSE-3)。性能上,WSE-3 是上一代 WSE-2 的兩倍,且功耗依舊保持不變。

90 萬(wàn)個(gè) AI 核心,44GB 的片上 SRAM 存儲(chǔ),讓 WSE-3 的峰值性能達(dá)到了 125 FP16 PetaFLOPS。

這相當(dāng)于 52 塊英偉達(dá) H100 GPU!

不僅如此,相比于 800 億個(gè)晶體管,芯片面積為 814 平方毫米的英偉達(dá) H100。

采用臺(tái)積電 5nm 制程的 WSE-3,不僅搭載了 40000 億個(gè)晶體管(50 倍),芯片面積更是高達(dá) 46225 平方毫米(57 倍)。

專為 AI 打造的計(jì)算能力

此前,在傳統(tǒng)的 GPU 集群上,研究團(tuán)隊(duì)不僅需要科學(xué)地分配模型,還必須在過(guò)程中處理各種復(fù)雜問(wèn)題,比如處理器單元的內(nèi)存容量、互聯(lián)帶寬、同步機(jī)制等等,同時(shí)還要不斷調(diào)整超參數(shù)并進(jìn)行優(yōu)化實(shí)驗(yàn)。

更令人頭疼的是,最終的實(shí)現(xiàn)很容易因?yàn)樾⌒〉淖儎?dòng)而受到影響,這樣就會(huì)進(jìn)一步延長(zhǎng)解決問(wèn)題所需的總時(shí)間。

相比之下,WSE-3 的每一個(gè)核心都可以獨(dú)立編程,并且專為神經(jīng)網(wǎng)絡(luò)訓(xùn)練和深度學(xué)習(xí)推理中,所需的基于張量的稀疏線性代數(shù)運(yùn)算,進(jìn)行了優(yōu)化。

而團(tuán)隊(duì)也可以在 WSE-3 的加持下,以前所未有的速度和規(guī)模訓(xùn)練和運(yùn)行 AI 模型,并且不需要任何復(fù)雜分布式編程技巧。

單芯片實(shí)現(xiàn)集群級(jí)性能

其中,WSE-3 配備的 44GB 片上 SRAM 內(nèi)存均勻分布在芯片表面,使得每個(gè)核心都能在單個(gè)時(shí)鐘周期內(nèi)以極高的帶寬(21 PB/s)訪問(wèn)到快速內(nèi)存 —— 是當(dāng)今地表最強(qiáng) GPU 英偉達(dá) H100 的 7000 倍。

超高帶寬,極低延遲

而 WSE-3 的片上互連技術(shù),更是實(shí)現(xiàn)了核心間驚人的 214 Pb / s 互連帶寬,是 H100 系統(tǒng)的 3715 倍。

單個(gè) CS-3 可訓(xùn) 24 萬(wàn)億參數(shù),大 GPT-4 十倍

由 WSE-3 組成的 CS-3 超算,可訓(xùn)練比 GPT-4 和 Gemini 大 10 倍的下一代前沿大模型。

再次打破了「摩爾定律」!2019 年 Cerebras 首次推出 CS-1,便打破了這一長(zhǎng)達(dá) 50 年的行業(yè)法則。

官方博客中的一句話,簡(jiǎn)直刷新世界觀:

在 CS-3 上訓(xùn)練一個(gè)萬(wàn)億參數(shù)模型,就像在 GPU 上訓(xùn)練一個(gè) 10 億參數(shù)模型一樣簡(jiǎn)單!

顯然,Cerebras 的 CS-3 強(qiáng)勢(shì)出擊,就是為了加速最新的大模型訓(xùn)練。

它配備了高達(dá) 1.2PB 的巨大存儲(chǔ)系統(tǒng),單個(gè)系統(tǒng)即可訓(xùn)出 24 萬(wàn)億參數(shù)的模型 —— 為比 GPT-4 和 Gemini 大十倍的模型鋪平道路。

簡(jiǎn)之,無(wú)需分區(qū)或重構(gòu),大大簡(jiǎn)化訓(xùn)練工作流提高開發(fā)效率。

在 Llama 2、Falcon 40B、MPT-30B 以及多模態(tài)模型的真實(shí)測(cè)試中,CS-3 每秒輸出的 token 是上一代的 2 倍。

而且,CS-3 在不增加功耗 / 成本的情況下,將性能提高了一倍。

除此之外,為了跟上不斷升級(jí)的計(jì)算和內(nèi)存需求,Cerebras 提高了集群的可擴(kuò)展性。

上一代 CS-2 支持多達(dá) 192 個(gè)系統(tǒng)的集群,而 CS-3 可配置高達(dá) 2048 個(gè)系統(tǒng)集群,性能飆升 10 倍。

具體來(lái)說(shuō),由 2048 個(gè) CS-3 組成的集群,可以提供 256 exafloop 的 AI 計(jì)算。

能夠在 24 小時(shí)內(nèi),從頭訓(xùn)練一個(gè) Llama 70B 的模型。

相比之下,Llama2 70B 可是用了大約一個(gè)月的時(shí)間,在 Meta 的 GPU 集群上完成的訓(xùn)練。

與 GPU 系統(tǒng)的另一個(gè)不同是,Cerebras 晶圓規(guī)模集群可分離計(jì)算和內(nèi)存組件,讓開發(fā)者能輕松擴(kuò)展 MemoryX 單元中的內(nèi)存容量。

得益于 Cerebras 獨(dú)特的 Weight Streaming 架構(gòu),整個(gè)集群看起來(lái)與單個(gè)芯片無(wú)異。

換言之,一名 ML 工程師可以在一臺(tái)系統(tǒng)上開發(fā)和調(diào)試數(shù)萬(wàn)億個(gè)參數(shù)模型,這在 GPU 領(lǐng)域是聞所未聞的。

具體來(lái)說(shuō),CS-3 除了為企業(yè)提供 24TB 和 36TB 這兩個(gè)版本外,還有面向超算的 120TB 和 1200TB 內(nèi)存版本。(之前的 CS-2 集群只有 1.5TB 和 12TB 可選)

單個(gè) CS-3 可與單個(gè) 1200 TB 內(nèi)存單元配對(duì)使用,這意味著單個(gè) CS-3 機(jī)架可以存儲(chǔ)模型參數(shù),比 10000 個(gè)節(jié)點(diǎn)的 GPU 集群多得多。

除此之外,與使用 GPU 相比,在 Cerebras 平臺(tái)上開發(fā)所需的代碼量還減少了高達(dá) 97%。

更令人震驚的數(shù)字是 —— 訓(xùn)練一個(gè) GPT-3 規(guī)模的模型,僅需 565 行代碼!

Playground AI 創(chuàng)始人稱,GPT-3 正穩(wěn)步成為 AI 領(lǐng)域的新「Hello World」。在 Cerebras 上,一個(gè)標(biāo)準(zhǔn)的 GPT-3 規(guī)模的模型,只需 565 行代碼即可實(shí)現(xiàn),創(chuàng)下行業(yè)新紀(jì)錄。

首個(gè)世界最強(qiáng)芯片打造的超算來(lái)了

由 G42 和 Cerebras 聯(lián)手打造的超級(jí)計(jì)算機(jī) ——Condor Galaxy,是目前在云端構(gòu)建 AI 模型最簡(jiǎn)單、最快速的解決方案。

它具備超過(guò) 16 ExaFLOPs 的 AI 計(jì)算能力,能夠在幾小時(shí)之內(nèi)完成對(duì)最復(fù)雜模型的訓(xùn)練,這一過(guò)程在傳統(tǒng)系統(tǒng)中可能需要數(shù)天。

其 MemoryX 系統(tǒng)擁有 TB 級(jí)別的內(nèi)存容量,能夠輕松處理超過(guò) 1000 億參數(shù)的大模型,大大簡(jiǎn)化了大規(guī)模訓(xùn)練的復(fù)雜度。

與現(xiàn)有的基于 GPU 的集群系統(tǒng)不同,Condor Galaxy 在處理 GPT 這類大型語(yǔ)言模型,包括 GPT 的不同變體、Falcon 和 Llama 時(shí),展現(xiàn)出了幾乎完美的擴(kuò)展能力。

這意味著,隨著更多的 CS-3 設(shè)備投入使用,模型訓(xùn)練的時(shí)間將按照幾乎完美的比例縮短。

而且,配置一個(gè)生成式 AI 模型只需幾分鐘,不再是數(shù)月,這一切只需一人便可輕松完成。

在簡(jiǎn)化大規(guī)模 AI 計(jì)算方面,傳統(tǒng)系統(tǒng)因?yàn)樾枰诙鄠€(gè)節(jié)點(diǎn)之間同步大量處理器而遇到了難題。

而 Cerebras 的全片級(jí)計(jì)算系統(tǒng)(WSC)則輕松跨越這一障礙 —— 它通過(guò)無(wú)縫整合各個(gè)組件,實(shí)現(xiàn)了大規(guī)模并行計(jì)算,并提供了簡(jiǎn)潔的數(shù)據(jù)并行編程界面。

此前,這兩家公司已經(jīng)聯(lián)手打造了世界上最大的兩臺(tái) AI 超級(jí)計(jì)算機(jī):Condor Galaxy 1 和 Condor Galaxy 2,綜合性能達(dá)到 8exaFLOPs。

G42 集團(tuán)的首席技術(shù)官 Kiril Evtimov 表示:「我們正在建設(shè)的下一代 AI 超級(jí)計(jì)算機(jī) Condor Galaxy 3,具有 8exaFLOPs 的性能,很快將使我們的 AI 計(jì)算總產(chǎn)能達(dá)到 16exaFLOPs?!?/p>

如今,我們即將迎來(lái)新一波的創(chuàng)新浪潮,而全球 AI 革命的腳步,也再一次被加快了。

參考資料:

  • https://www.cerebras.net/

本文來(lái)自微信公眾號(hào):新智元 (ID:AI_era)

廣告聲明:文內(nèi)含有的對(duì)外跳轉(zhuǎn)鏈接(包括不限于超鏈接、二維碼、口令等形式),用于傳遞更多信息,節(jié)省甄選時(shí)間,結(jié)果僅供參考,IT之家所有文章均包含本聲明。

相關(guān)文章

關(guān)鍵詞:AI芯片

軟媒旗下網(wǎng)站: IT之家 最會(huì)買 - 返利返現(xiàn)優(yōu)惠券 iPhone之家 Win7之家 Win10之家 Win11之家

軟媒旗下軟件: 軟媒手機(jī)APP應(yīng)用 魔方 最會(huì)買 要知