搶攻AI商機,AMD近期推出的MI300X顯示卡,在AI領域展現強大性能,其HBM密度為輝達H100的2.4倍,頻寬更是H100的1.6倍,這也引起了外界的關注,市場認為在先進技術如Chiplet和HBM的支持下,MI300X有望與輝達H200媲美。
AMD於台灣時間7日凌晨2點舉行「Advancing AI」活動,揭露多項全新產品,包括Instinct MI300系列資料中心AI加速器、ROCm 6開放軟體堆疊,以及搭載Ryzen AI的Ryzen 8040全新系列處理器,由董事長兼執行長蘇姿丰博士領軍,並邀請微軟、Meta、戴爾科技集團等國際大廠,展示與AMD攜手合作帶來從雲端到企業與PC的先進人工智慧(AI)解決方案。
現場蘇姿丰介紹領先業界的生成式AI加速器-AMD Instinct MI300X,電晶體數量高達1,530億個,多於MI300的1,460億個,蘇姿丰形容,這是MI300的GPU版本。相較業界競品輝達H100,蘇姿丰表示,MI300X的記憶體是H100的2.4倍,頻寬是H100的1.6倍,效能更加提升,尤其在推理能力部分,可支援更大的語言模型運算。
據悉微軟占AMD出貨量超過一半,其次為亞馬遜;而Meta和谷歌兩家公司目前也正在測試AMD的產品,估計Meta將高機率成為AMD之客戶,作為輝達之外的第二解決方案。AMD強調,市場需要選擇,AMD提供獨特靈活的方案,與合作夥伴一同擴展;並指出只有AMD能夠提供從領先的x86伺服器解決方案,到為生成式AI公有雲和私有雲提供支援,再到全新的x86 AI PC機群。AMD持續擴展軟體能力,以降低進入與使用AI完整潛力的門檻。
而HBM3/3e採用DDR5晶圓堆疊技術,並在AI伺服器需求持續增長的情況下,供需格局轉佳,台灣DDR5供應鏈包括連接器製造商嘉澤(3533)與優群(3217),模組廠商威剛(3260)及十銓(4967)等公司,將有望受惠於這一趨勢。十銓公司表示,隨著AI對記憶體需求的增加,對DRAM和更大存儲SSD的需求也將提升,對明年整體記憶體產業的表現持樂觀態度。
HBM技術在AMD於2015年推出的Radeon R9 Fury X顯卡中首次應用,隨後在AI浪潮中迅速備受矚目。AMD擁有相當多的HBM技術專利,成為HBM設計方案的開山鼻祖。高頻寬記憶體,尤其是HBM3/3e由DDR5晶圓堆疊的技術,已成為產業的新藍海。法人預測在2023年至2027年,DDR5位元需求年複合成長率將達80%,顯示出市場對這一技術的迅速接受,儘管廠商在產能供過於求時保持謹慎態度,但隨著需求逐步穩定,預計明年上半年合約價格將逐季上升。