正如預期的那樣,NVIDIA仍在運行GTC 2024(GPU技術會議)在周一至週二的夜晚,新的布萊克韋爾建築介紹了有望制定新標準的。
正如NVIDIA首席執行官詹森·黃(Jensen Huang)對此解釋的那樣,它應該預示“生成AI的新時代”。 B200芯片替代了霍珀一代的先前H100和GH100旗艦店。
令人印象深刻的技術關鍵數據(見下文)表明,亞馬遜和微軟等大型客戶將與NVIDIA的適當需求和預算保持一致,以便獲得盡可能多的此類芯片。
AI生成的內容
最重要的事情很快
- Nvidia在GTC 2024上介紹了新的Blackwell Architecture,用於生成AI。
- B200芯片取代了H100和GH100旗艦店,並提高了性能和能源效率。
- GPU基於4 nm的生產過程,並具有2080億晶體管。
- GB200 SuperChip結合了寬限期處理器,Blackwell GPU,並提供極高的計算能力。
NVIDIA B200的技術數據
GPU是基於4NP製造過程開發的,這是台灣芯片製造商TSMC的特殊生產。
B200本身是雙二型設計。這兩個內置芯片通過幻燈片到鏈接以每秒10 tb的速度進行通信,因此與MCM工藝(多芯片模塊)相比,該芯片主要不受歡迎,該過程主要由AMD使用。
鏈接到YouTube內容
總體而言2080億晶體管在B200卡中。根據NVIDIA的說法,理論計算服務表明自己如下:
- FP8:最多20 Petaflops
- FP16:最多10 Petaflops
- fp32:最多5 Petaflos
根據黃的說法,這應該創造大約是AI訓練的性能和AI推理的30倍性能的四倍。能源效率應提高25倍。
NVIDIA B200可與192 GB HBM3E內存一起使用,帶寬應高達8 tb/s。
“格蕾絲·布萊克威爾”作為新的超級籌碼
新芯片還構成了GB200“ Grace Blackwell” SuperChip的基礎,該芯片主要用於NVIDIA自己的NVL72計算機和特定於客戶的解決方案。
GB200 Grace Blackwell是一種混合解決方案,由寬限期處理器組成,來自製造商臂的72個Neoverse-V2核心,而在這方面顯示的B200圖形芯片中有兩個單個GB200芯片中有四個。
在提到的NVL72計算機中,使用了36個帶有72個Blackwell GPU的寬限期CPU(並且由於144個Blackwell Dies),在以下瘋狂的技術數據中表示:
- 處理器:2,592 ARM NEO-
- 內存:最多17 TB LPDDDR5X-RAM
- 72 Blackwell-GPU具有13.5 TB HBM3E內存
- FP4計算:最多1,440 Petaflops
- FP8計算:最多720個腳步
- FP16計算:最多360 Petaflos
多虧了NVLink(在帶寬上最多可達130 TB),NVL72超級計算機應像單個大型圖形處理器一樣行為。
總體而言,可以在這種NVLINK域中合併高達576個GPU-根據黃的說法,整個計算力應該足以處理具有數万億個參數的大語言模型(LLM)。
所需的功耗相應高:單個GB200 SuperChip最多需要2700瓦。
第一批業務客戶已經排隊
業務合作夥伴的AI平台應在一年中提供。
NVIDIA明確調用雲提供商,例如AWS,Google Cloud,Microsoft Azure和Oracle Cloud Infrastructure,對Blackwell Architecture幾乎沒有興趣。正如Huang所解釋的那樣,與Blackwell的Nvidia面臨著“公司歷史上最成功的推出”。