5 月 24 日報道,在 2022 年臺北國際電腦展(Computex)上,英偉達宣布推出液冷 A100 PCIe GPU,以滿足客戶對高性能碳中和數(shù)據(jù)中心的需求。這在主流服務器 GPU 中尚屬首例。
同時,英偉達宣布多家領先廠商采用全球首批基于英偉達自研數(shù)據(jù)中心 CPU 的系統(tǒng)設計,并有 30 多家全球技術合作伙伴在 Computex 上發(fā)布首批基于英偉達 Jetson AGX Orin 的邊緣 AI 與嵌入式計算系統(tǒng)。
當前英偉達正圍繞 CPU、GPU、DPU 這數(shù)據(jù)中心三大芯片支柱全面發(fā)展,以輔助其合作伙伴構建實現(xiàn)新一波數(shù)據(jù)中心轉型、構建現(xiàn)代 AI 工廠。其中,CPU 管理整個系統(tǒng)的運行,GPU 負責提供核心計算能力,DPU 負責處理安全的網(wǎng)絡通信并提供網(wǎng)絡內置計算能力以優(yōu)化整體性能。
英偉達硬件工程高級副總裁 Brian Kelleher 透露說,英偉達將每種芯片架構的更新節(jié)奏設定為兩年,一年將專注于 x86 平臺,一年將專注于 Arm 平臺,無論客戶與市場偏好如何,英偉達體系架構和平臺都將支持 x86 和 Arm。
英偉達加速計算業(yè)務副總裁 Ian Buck 談道,如果世界上所有的 AI、高性能計算、數(shù)據(jù)分析工作負載都在 GPU 服務器上運行,英偉達預估每年可節(jié)省超過 12 萬億瓦時的電力,相當于每年減少 200 萬輛汽車上路。
一、液冷 GPU:同等性能、更少耗電
液冷技術誕生于大型機時代,在 AI 時代日臻成熟。如今,液冷技術已經(jīng)以直接芯片(Direct-to-Chip)冷卻的形式廣泛應用于全球高速超級計算機。英偉達 GPU 在 AI 推理和高性能計算方面的能效已比 CPU 高出 20 倍,而加速計算也順理成章地將采用液冷技術。
英偉達估算,如果將全球所有運行 AI 和高性能計算的 CPU 服務器切換為 GPU 加速系統(tǒng),每年可節(jié)省高達 11 萬億瓦時的能源。節(jié)約的能源量可供 150 多萬套房屋使用 1 年。
今日,英偉達發(fā)布了率先采用直接芯片冷卻技術的數(shù)據(jù)中心 PCIe GPU。這款液冷 GPU 可在減少能耗的同時維持性能不變,現(xiàn)已進入試用階段,預計將于今年夏季正式發(fā)布。
旗下管理超過 240 個數(shù)據(jù)中心的全球服務提供商 Equinix 已在驗證 A100 80GB PCIe 液冷 GPU 在其數(shù)據(jù)中心的應用,這也是該公司為實現(xiàn)可持續(xù)性冷卻和熱量捕獲的綜合性方案中的一部分。
在單獨的測試中,Equinix 和英偉達均發(fā)現(xiàn):采用液冷技術的數(shù)據(jù)中心工作負載可與風冷設施持平,同時消耗的能源減少了約 30%。英偉達估計,液冷數(shù)據(jù)中心的 PUE 可能達到 1.15,遠低于風冷的 PUE 1.6。
在空間相同的條件下,液冷數(shù)據(jù)中心可實現(xiàn)雙倍的計算量。這是由于 A100 GPU 僅使用一個 PCIe 插槽,而風冷 A100 GPU 需使用兩個 PCIe 插槽。
今年晚些時候,華碩、新華三、浪潮、寧暢、超微、超聚變等至少十幾家系統(tǒng)制造商將在其產(chǎn)品中使用液冷 GPU。
據(jù)悉,英偉達計劃于明年推出的一版 A100 PCIe 卡中搭載基于 NVIDIA Hopper 架構的 H100 Tensor Core GPU。近期內,英偉達計劃將液冷技術應用于自有高性能數(shù)據(jù)中心 GPU 和 NVIDIA HGX 平臺。
二、數(shù)十款基于 NVIDIA Grace CPU 的服務器將于明年出貨
Grace 是英偉達首款數(shù)據(jù)中心 CPU,專為 AI 工作負載而打造。該芯片有望在明年出貨,將提供兩種外形規(guī)格。
上圖左側 Grace-Hopper 是一種旨在加速大型 AI、高性能計算、云和超大規(guī)模工作負載的單一超級芯片模組,在 Grace CPU 和 Hopper GPU 之間實現(xiàn)了芯片級直連,CPU 與 GPU 通過帶寬可高達 900GB / s 的互連技術 NVLink-C2C 進行通信。
Brian Kelleher 說,Grace 將以比任何其他 CPU 快 15 倍的速度,將數(shù)據(jù)傳輸?shù)?Hopper,并將 Hopper 的工作數(shù)據(jù)大小增至 2TB。
同時,英偉達還提供將兩個 Grace CPU 芯片通過 NVLink-C2C 互連在一起的 Grace 超級芯片。Grace 超級芯片擁有 144 個高性能 Armv9 CPU 核心,內存帶寬高達 1TB / s,能效是現(xiàn)有服務器的 2 倍。包括 1TB 內存在內的整個模組,功耗僅為 500W。
除了 NVLink-C2C 外,英偉達英偉達亦支持今年早些時候發(fā)布、仍在發(fā)展完善的 chiplet 標準 UCIe。
今天,英偉達發(fā)布 4 種面向標準數(shù)據(jù)中心工作負載的 Grace 參考設計:
1、適用于云游戲的 CGX;
2、適用于數(shù)字孿生和 Omniverse 的 OVX;
3、適用于高性能計算和超級計算的 HGX;
4、適用于 AI 訓練、推理和高性能計算的 HGX。
緊接著,英偉達宣布推出 HGX Grace 和 HGX Grace Hopper 系統(tǒng),將提供 Grace Hopper 和 Grace CPU 超級芯片模組及其相應的 PCB 參考設計。兩者均為 OEM 2U 高密度服務器機箱而設計,可供 NVIDIA 合作伙伴參考與修改。
華碩、富士康工業(yè)互聯(lián)網(wǎng)、GIGABYTE、QCT、Supermicro 和 Wiwynn 的數(shù)十款服務器型號的 Grace 系統(tǒng)預計將于 2023 年上半年開始發(fā)貨。
三、首批 Jetson AGX Orin 服務器和設備發(fā)布
英偉達 Isaac 機器人平臺有 4 個支柱:一是創(chuàng)建 AI;二是在虛擬世界中仿真機器人的操作,然后在現(xiàn)實世界中進行嘗試;三是構建實體機器人;四是管理已部署機器人隊列的整個生命周期。
在構建現(xiàn)實世界的實體機器人并進行部署方面,英偉達 Jetson 已成為適用于邊緣和機器人的 AI 平臺,擁有超過 100 萬開發(fā)者、超過 150 個合作伙伴,超過 6000 家公司使用 Jetson 用于量產(chǎn)。
Jetson AGX Orin 采用英偉達 Ampere Tensor Core GPU、12 個 Arm Cortex-A78AE CPU、下一代深度學習和視覺加速器、高速接口、更快的內存帶寬、多模態(tài)傳感器,可提供每秒 275 萬億次運算性能,相當于一臺“掌上服務器”。
在針腳兼容性與外形尺寸相同的情況下,其處理能力超過前代產(chǎn)品英偉達 AGX Xavier 8 倍。
Jetson AGX Orin 開發(fā)者套件自 3 月開始已通過經(jīng)銷商在全球發(fā)售,生產(chǎn)模塊將于 7 月開始發(fā)售,起售價為 399 美元。Orin NX 模塊尺寸僅為 70 毫米 x45 毫米,將于 9 月上市。
面向邊緣 AI 和嵌入式計算應用,研揚、凌華、研華等全球 30 多家英偉達合作伙伴在 Computex 上發(fā)布了首批基于英偉達 Jetson AGX Orin 的生產(chǎn)系統(tǒng),覆蓋服務器、邊緣設備、工業(yè) PC、載板、AI 軟件等品類。
這些產(chǎn)品將推出有風扇和無風扇配置并且提供多種連接和接口選項,并會加入適用于機器人、制造、零售、運輸、智慧城市、醫(yī)療等重要經(jīng)濟部門或加固型應用的規(guī)格。
為了加速 AMR 的開發(fā),英偉達還推出用于 AMR 的先進計算和傳感器參考設計 Isaac Nova Orin。
Nova Orin 由 2 個 Jetson AGX Orin 組成,支持 2 個立體攝像頭、4 個廣角攝像頭、2 個 2D 激光雷達、1 個 3D 激光雷達、8 個超聲波傳感器等多種傳感器,參考架構將于今年晚些時候推出。
Jetson 平臺也擁有全方位的英偉達軟件支持。為了滿足特定用例的需求,英偉達軟件平臺加入了:用于機器人技術的 NVIDIA Isaac Sim on Omniverse,用于構建語音 AI 應用的 GPU 加速 SDK Riva,用于 AI 多傳感器處理、視頻、音頻和圖像理解的串流分析工具包 DeepStream,以及通過整合視覺數(shù)據(jù)與 AI 提高行業(yè)運營效率和安全的應用框架、開發(fā)者工具組與合作伙伴生態(tài)系統(tǒng) Metropolis。
廣告聲明:文內含有的對外跳轉鏈接(包括不限于超鏈接、二維碼、口令等形式),用于傳遞更多信息,節(jié)省甄選時間,結果僅供參考,IT之家所有文章均包含本聲明。