設(shè)置
  • 日夜間
    隨系統(tǒng)
    淺色
    深色
  • 主題色

英偉達(dá)獨(dú)霸時(shí)代結(jié)束?ChatGPT 引爆谷歌微軟芯片大戰(zhàn),亞馬遜也入局

新智元 2023/5/12 19:33:09 責(zé)編:夢(mèng)澤

ChatGPT 引爆了芯片界「百家爭(zhēng)鳴」,谷歌、微軟、亞馬遜紛紛入局芯片大戰(zhàn),英偉達(dá)恐怕不再一家獨(dú)大。

ChatGPT 爆火之后,谷歌和微軟兩巨頭的 AI 大戰(zhàn)戰(zhàn)火,已經(jīng)燒到了新的領(lǐng)域 —— 服務(wù)器芯片。

如今,AI 和云計(jì)算都成了必爭(zhēng)之地,而芯片,也成為降低成本、贏得商業(yè)客戶的關(guān)鍵。

原本,亞馬遜、微軟、谷歌這類大廠,都是以軟件而聞名的,而現(xiàn)在,它們紛紛斥資數(shù)十億美元,用于芯片開發(fā)和生產(chǎn)。

各大科技巨頭研發(fā)的 AI 芯片

ChatGPT 爆火,大廠開啟芯片爭(zhēng)霸賽

根據(jù)外媒 The Information 的報(bào)道以及其他來源,這三家大廠現(xiàn)在已經(jīng)推出或計(jì)劃發(fā)布 8 款服務(wù)器和 AI 芯片,用于內(nèi)部產(chǎn)品開發(fā)、云服務(wù)器租賃或者二者兼有。

「如果你能制造出針對(duì) AI 進(jìn)行優(yōu)化的硅,那前方等待你的將是巨大的勝利」,研究公司 Forrester 的董事 Glenn O’Donnell 這樣說。

付出這些巨大的努力,一定會(huì)得到回報(bào)嗎?

答案是,并不一定。

英特爾、AMD 和英偉達(dá)可以從規(guī)模經(jīng)濟(jì)中獲益,但對(duì)大型科技公司來說,情況遠(yuǎn)非如此。

它們還面臨著許多棘手的挑戰(zhàn),比如需要聘請(qǐng)芯片設(shè)計(jì)師,還要說服開發(fā)者使用他們定制的芯片構(gòu)建應(yīng)用程序。

不過,大廠們已經(jīng)在這一領(lǐng)域取得了令人矚目的進(jìn)步。

根據(jù)公布的性能數(shù)據(jù),亞馬遜的 Graviton 服務(wù)器芯片,以及亞馬遜和谷歌發(fā)布的 AI 專用芯片,在性能上已經(jīng)可以和傳統(tǒng)的芯片廠商相媲美。

亞馬遜、微軟和谷歌為其數(shù)據(jù)中心開發(fā)的芯片,主要有這兩種:標(biāo)準(zhǔn)計(jì)算芯片和用于訓(xùn)練和運(yùn)行機(jī)器學(xué)習(xí)模型的專用芯片。正是后者,為 ChatGPT 之類的大語言模型提供了動(dòng)力。

此前,蘋果成功地為 iPhone,iPad 和 Mac 開發(fā)了芯片,改善了一些 AI 任務(wù)的處理。這些大廠,或許正是跟蘋果學(xué)來的靈感。

在三家大廠中,亞馬遜是唯一一家在服務(wù)器中提供兩種芯片的云服務(wù)商,2015 年收購的以色列芯片設(shè)計(jì)商 Annapurna Labs,為這些工作奠定了基礎(chǔ)。

谷歌在 2015 年推出了一款用于 AI 工作負(fù)載的芯片,并正在開發(fā)一款標(biāo)準(zhǔn)服務(wù)器芯片,以提高谷歌云的服務(wù)器性能。

相比之下,微軟的芯片研發(fā)開始得較晚,是在 2019 年啟動(dòng)的,而最近,微軟更加快了推出專為 LLM 設(shè)計(jì)的 AI 芯片的時(shí)間軸。

而 ChatGPT 的爆火,點(diǎn)燃了全世界用戶對(duì)于 AI 的興奮。這更促進(jìn)了三家大廠的戰(zhàn)略轉(zhuǎn)型。

ChatGPT 運(yùn)行在微軟的 Azure 云上,使用了上萬塊英偉達(dá) A100。無論是 ChatGPT,還是其他整合進(jìn) Bing 和各種程序的 OpenAI 軟件,都需要如此多的算力,以至于微軟已經(jīng)為開發(fā) AI 的內(nèi)部團(tuán)隊(duì)分配了服務(wù)器硬件。

在亞馬遜,首席財(cái)務(wù)官 Brian Olsavsky 在上周的財(cái)報(bào)電話會(huì)議上告訴投資者,亞馬遜計(jì)劃將支出從零售業(yè)務(wù)轉(zhuǎn)移到 AWS,部分原因是投資于支持 ChatGPT 所需的基礎(chǔ)設(shè)施。

在谷歌,負(fù)責(zé)制造張量處理單元的工程團(tuán)隊(duì)已經(jīng)轉(zhuǎn)移到谷歌云。據(jù)悉,云組織現(xiàn)在可以為 TPU 和在其上運(yùn)行的軟件制定路線圖,希望讓云客戶租用更多 TPU 驅(qū)動(dòng)的服務(wù)器。

谷歌:為 AI 特調(diào)的 TPU V4

早在 2020 年,谷歌就在自家的數(shù)據(jù)中心上部署了當(dāng)時(shí)最強(qiáng)的 AI 芯片 ——TPU v4。

不過直到今年的 4 月 4 日,谷歌才首次公布了這臺(tái) AI 超算的技術(shù)細(xì)節(jié)。

相比于 TPU v3,TPU v4 的性能要高出 2.1 倍,而在整合 4096 個(gè)芯片之后,超算的性能更是提升了 10 倍。

同時(shí),谷歌還聲稱,自家芯片要比英偉達(dá) A100 更快、更節(jié)能。對(duì)于規(guī)模相當(dāng)?shù)南到y(tǒng),TPU v4 可以提供比英偉達(dá) A100 強(qiáng) 1.7 倍的性能,同時(shí)在能效上也能提高 1.9 倍。

對(duì)于相似規(guī)模的系統(tǒng),TPU v4 在 BERT 上比 A100 快 1.15 倍,比 IPU 快大約 4.3 倍。對(duì)于 ResNet,TPU v4 分別快 1.67 倍和大約 4.5 倍。

另外,谷歌曾暗示,它正在研發(fā)一款與 Nvidia H100 競(jìng)爭(zhēng)的新 TPU。谷歌研究員 Jouppi 在接受路透社采訪時(shí)表示,谷歌擁有「未來芯片的生產(chǎn)線」。

微軟:秘密武器雅典娜

不管怎么說,微軟在這場(chǎng)芯片紛爭(zhēng)中,依舊躍躍欲試。

此前有消息爆出,微軟秘密組建的 300 人團(tuán)隊(duì),在 2019 年時(shí)就開始研發(fā)一款名為「雅典娜」(Athena)的定制芯片。

根據(jù)最初的計(jì)劃,「雅典娜」會(huì)使用臺(tái)積電的 5nm 工藝打造,預(yù)計(jì)可以將每顆芯片的成本降低 1/3。

如果在明年能夠大面積實(shí)裝,微軟內(nèi)部和 OpenAI 的團(tuán)隊(duì)便可以借助「雅典娜」同時(shí)完成模型的訓(xùn)練和推理。

這樣一來,就可以極大地緩解專用計(jì)算機(jī)緊缺的問題。

彭博社在上周的報(bào)道中,稱微軟的芯片部門已與 AMD 合作開發(fā)雅典娜芯片,這也導(dǎo)致 AMD 的股價(jià)在周四上漲了 6.5%。

但一位知情者表示,AMD 并未參與其中,而是在開發(fā)自己的 GPU,與英偉達(dá)競(jìng)爭(zhēng),并且 AMD 一直在與微軟討論芯片的設(shè)計(jì),因?yàn)槲④涱A(yù)計(jì)要購買這款 GPU。

亞馬遜:已搶跑一個(gè)身位

而在與微軟和谷歌的芯片競(jìng)賽中,亞馬遜似乎已經(jīng)領(lǐng)先了一個(gè)身位。

在過去的十年中,亞馬遜在云計(jì)算服務(wù)方面,通過提供更加先進(jìn)的技術(shù)和更低的價(jià)格,一直保持了對(duì)微軟和谷歌的競(jìng)爭(zhēng)優(yōu)勢(shì)。

而未來十年內(nèi),亞馬遜也有望通過自己內(nèi)部開發(fā)的服務(wù)器芯片 ——Graviton,繼續(xù)在競(jìng)爭(zhēng)中保持優(yōu)勢(shì)。

作為最新一代的處理器,AWS Graviton3 在計(jì)算性能上比上一代提高多達(dá) 25%,浮點(diǎn)性能提高多達(dá) 2 倍。并支持 DDR5 內(nèi)存,相比 DDR4 內(nèi)存帶寬增加了 50%。

針對(duì)機(jī)器學(xué)習(xí)工作負(fù)載,AWS Graviton3 比上一代的性能高出多達(dá) 3 倍,并支持 bfloat16。

基于 Graviton 3 芯片的云服務(wù)在一些地區(qū)非常受歡迎,甚至于達(dá)到了供不應(yīng)求的狀態(tài)。

亞馬遜另一方面的優(yōu)勢(shì)還表現(xiàn)在,它是目前唯一一家在其服務(wù)器中提供標(biāo)準(zhǔn)計(jì)算芯片(Graviton)和 AI 專用芯片(Inferentia 和 Trainium)云供應(yīng)商。

早在 2019 年,亞馬遜就推出了自己的 AI 推理芯片 ——Inferentia。

它可以讓客戶可以在云端低成本運(yùn)行大規(guī)模機(jī)器學(xué)習(xí)推理應(yīng)用程序,例如圖像識(shí)別、語音識(shí)別、自然語言處理、個(gè)性化和欺詐檢測(cè)。

而最新的 Inferentia 2 更是在計(jì)算性能提高了 3 倍,加速器總內(nèi)存擴(kuò)大了 4 倍,吞吐量提高了 4 倍,延遲降低到 1/10。

在初代 Inferentia 推出之后,亞馬遜又發(fā)布了其設(shè)計(jì)的主要用于 AI 訓(xùn)練的定制芯片 ——Trainium。

它對(duì)深度學(xué)習(xí)訓(xùn)練工作負(fù)載進(jìn)行了優(yōu)化,包括圖像分類、語義搜索、翻譯、語音識(shí)別、自然語言處理和推薦引擎等。

在一些情況下,芯片定制不僅僅可以把成本降低一個(gè)數(shù)量級(jí),能耗減少到 1/10,并且這些定制化的方案可以給客戶以更低的延遲提供更好的服務(wù)。

撼動(dòng)英偉達(dá)的壟斷,沒那么容易

不過到目前為止,大多數(shù)的 AI 負(fù)載還是跑在 GPU 上的,而英偉達(dá)生產(chǎn)了其中的大部分芯片。

據(jù)此前報(bào)道,英偉達(dá)獨(dú)立 GPU 市場(chǎng)份額達(dá) 80%,在高端 GPU 市場(chǎng)份額高達(dá) 90%。

20 年,全世界跑 AI 的云計(jì)算與數(shù)據(jù)中心,80.6% 都由英偉達(dá) GPU 驅(qū)動(dòng)。21 年,英偉達(dá)表示,全球前 500 個(gè)超算中,大約七成是由自家的芯片驅(qū)動(dòng)。

而現(xiàn)在,就連運(yùn)行 ChatGPT 的微軟數(shù)據(jù)中心用了上萬塊英偉達(dá) A100 GPU。

一直以來,不管是成為頂流的 ChatGPT,還是 Bard、Stable Diffusion 等模型,背后都是由每個(gè)大約價(jià)值 1 萬美元的芯片英偉達(dá) A100 提供算力。

不僅如此,A100 目前已成為人工智能專業(yè)人士的「主力」。2022 人工智能現(xiàn)狀報(bào)告還列出了使用 A100 超級(jí)計(jì)算機(jī)部分公司的名單。

顯而易見,英偉達(dá)已經(jīng)壟斷了全球算力,憑借自家的芯片,一統(tǒng)江湖。

根據(jù)從業(yè)者的說法,相比于通用芯片,亞馬遜、谷歌和微軟一直在研發(fā)的專用集成電路(ASIC)芯片,在執(zhí)行機(jī)器學(xué)習(xí)任務(wù)的速度更快,功耗更低。

O’Donnell 董事在比較 GPU 和 ASIC 時(shí),用了這樣一個(gè)比較:「平時(shí)開車,你可以用普銳斯,但如果你必須在山上用四輪驅(qū)動(dòng),用吉普牧馬人就會(huì)更合適。」

然而盡管已經(jīng)做出了種種努力,但亞馬遜、谷歌和微軟都面臨著挑戰(zhàn) —— 如何說服開發(fā)者使用這些 AI 芯片呢?

現(xiàn)在,英偉達(dá)的 GPU 是占主導(dǎo)地位的,開發(fā)者早已熟悉其專有的編程語言 CUDA,用于制作 GPU 驅(qū)動(dòng)的應(yīng)用程序。

如果換到亞馬遜、谷歌或微軟的定制芯片,就需要學(xué)習(xí)全新的軟件語言了,他們會(huì)愿意嗎?

參考資料:

  • https://www.theinformation.com/articles/google-and-microsofts-other-ai-race-server-chips?rc=epv9gi

  • https://www.theregister.com/2023/05/09/intel_layoffs_coming/

本文來自微信公眾號(hào):新智元 (ID:AI_era)

廣告聲明:文內(nèi)含有的對(duì)外跳轉(zhuǎn)鏈接(包括不限于超鏈接、二維碼、口令等形式),用于傳遞更多信息,節(jié)省甄選時(shí)間,結(jié)果僅供參考,IT之家所有文章均包含本聲明。

相關(guān)文章

關(guān)鍵詞:ChatGPT芯片

軟媒旗下網(wǎng)站: IT之家 最會(huì)買 - 返利返現(xiàn)優(yōu)惠券 iPhone之家 Win7之家 Win10之家 Win11之家

軟媒旗下軟件: 軟媒手機(jī)APP應(yīng)用 魔方 最會(huì)買 要知