IT之家 12 月 31 日消息,韓國 Chosun Biz 報道稱,除了大量預(yù)定臺積電產(chǎn)能外,英偉達(dá)還斥巨資拿下了 HBM3 內(nèi)存的供應(yīng)合同。
消息人士稱,該公司從美光和 SK 海力士那里預(yù)購了 700 億至 1 萬億韓元(IT之家備注:當(dāng)前約 3.84 億至 54.9 億元人民幣)的 HBM3 內(nèi)存。雖然沒有關(guān)于這些款項具體用途的信息,但業(yè)界普遍認(rèn)為其目的在于確保 2024 年 HBM 供應(yīng)穩(wěn)定,避免新一代 AI 和 HPC GPU 發(fā)布后因為這種事而掉鏈子。
此外,還有業(yè)內(nèi)人士透露,三星電子、SK 海力士、美光三大存儲公司明年的 HBM 產(chǎn)能已完全售罄。業(yè)界認(rèn)為,由于 AI 行業(yè)半導(dǎo)體公司之間的激烈競爭,HBM 市場預(yù)計將在未來兩年內(nèi)實現(xiàn)快速增長。
根據(jù)現(xiàn)有爆料信息,英偉達(dá)正準(zhǔn)備推出兩款配備 HBM3E 內(nèi)存的產(chǎn)品:配備 141GB HBM3E 的 H200 GPU 以及 GH200 超級芯片,因此英偉達(dá)需要大量 HBM 內(nèi)存。
H200 是目前世界上最強(qiáng)的 AI 芯片,也是世界上首款采用 HBM3e 的 GPU,基于 NVIDIA Hopper 架構(gòu)打造,與 H100 相互兼容,可提供 4.8 TB / s 速度。
在人工智能方面,英偉達(dá)表示,HGX H200 在 Llama 2(700 億參數(shù) LLM)上的推理速度比 H100 快了一倍。HGX H200 將以 4 路和 8 路的配置提供,與 H100 系統(tǒng)中的軟件和硬件兼容。它將適用于每一種類型的數(shù)據(jù)中心(本地、云、混合云和邊緣),并由 Amazon Web Services、Google Cloud、Microsoft Azure 和 Oracle Cloud Infrastructure 等部署,將于 2024 年第二季度推出。
廣告聲明:文內(nèi)含有的對外跳轉(zhuǎn)鏈接(包括不限于超鏈接、二維碼、口令等形式),用于傳遞更多信息,節(jié)省甄選時間,結(jié)果僅供參考,IT之家所有文章均包含本聲明。