輝達(Nvidia Corp.)週一(18日)在眾所矚目的「GPU Technology Conference」(又稱GTC大會)上發表旗艦款AI GPU「Blackwell B200」,執行長黃仁勳(Jensen Huang)為這場年度開發者盛會揭開序幕。
CNBC、Tom`s Hardware等外電報導,B200擁有2,080億顆電晶體、是前世代AI晶片(有800億顆電晶體)的兩倍以上,預計今(2024)年稍晚開始出貨。這些電晶體幾乎可在同一時間存取B200附加的記憶體,進而提高生產力。B200尺寸相當大,將兩顆分開製造的裸晶整合進一顆由台積電(2330)代工的晶片。
Blackwell B200之所以採用雙裸晶組態,是因為使用台積電的4NP製程代工。4NP製程是現有Hopper H100及Ada Lovelace架構GPU使用的4N製程進化版。4NP提供的晶片密度應未大幅提升,代表若想要效能更強大的晶片、尺寸也需更大。
黃仁勳在會議上表明,「Hopper非常棒、但我們需要更大的GPU。」
B200 GPU單顆的AI運算效能可達20 petaflops,而前一代H100的AI運算性能最多只有4 petaflops。B200還將搭配192GB HBM3e記憶體,提供最高8 TB/s頻寬。
輝達並推出一款「Grace Blackwell GB200」超級晶片,將兩顆B200 GPU及一顆Arm架構Grace CPU結合在一起。
輝達指出,與H100解決方案相較,基於GB200系統的新一代DGX SuperPOD超級電腦平台,採用水冷(liquid-cooled)設計,AI訓練效能提升4倍、推論速度更加快30倍,能源效率則改善25倍。
輝達也從原本以銷售單顆晶片為重心,逐漸偏向販售一整個系統。黃仁勳直指,「Blackwell」並非一款晶片,而是平台的名字。
輝達最新系列伺服器GB200 NVLink 2 (見圖)將內建72顆Blackwell GPU、36顆Grace CPU,也採用水冷設計,能為AI大型語言模型(LLM)處理最多27兆個參數的模型。
輝達並表示,將為商用軟體訂閱服務新增一款名為「Nvidia Inference Microservice」(簡稱NIM)的產品,讓客戶更加輕鬆使用舊款輝達GPU進行推論,允許企業繼續使用手上已有的數億顆輝達GPU。NIM讓企業執行自家AI模型,不需向OpenAI等業者購買AI服務。
輝達指出,包括亞馬遜(Amazon.com)、Alphabet旗下Google、Facebook母公司Meta Platforms、微軟(Microsoft)、OpenAI、甲骨文(Oracle)及特斯拉(Tesla)在內的大客戶,預料都會使用這款最新晶片。
輝達18日在正常盤上漲0.7%、收884.55美元;盤後下挫1.61%至870.31美元。