圖片來源: 

AMD

生成式AI帶動全球AI應用興起,各產業也希望應用AI提高生產力、競爭力,除了帶動資料中心對大量AI算力的需求,在終端方面也帶動AI PC趨勢,提升PC的AI算力,讓AI應用的執行能在不需公有雲或資料中心的情形下,可以在PC端執行,保障隱私、降低企業機敏資料外洩風險。AMD即將在下周五(10/11)發表新一代AI運算產品及最新的廠商合作,包括新一代EPYC伺服器專用處理器、Instinct系列加速器、Ryzen AI處理器,強化資料中心、邊緣運算到PC市場的AI運算布局

目前AMD在資料中心的主力產品是第4代EPYC處理器,相較於前一代產品,2022年下半年先推出第4代產品是代號Genoa的處理器,鎖定通用計算需求,率先採用Zen 4核心,並且延續多核心的策略,將核心數增至96個核心、192個執行緒,已獲得AWS、Google Cloud的採用。

然而,直到2023年,才算是AMD第4代EPYC大軍進攻的關鍵一年,去年7月AMD在美國舊金山一口氣發表更完整的第4代EPYC處理器家族,包括鎖定技術運算代號為Genoa X處理器,以及針對雲原生需要的Bergamo處理器,還有去年下半年推出針對電信及邊緣運算設計代號Siena處理器。

AMD第4代EPYC處理器包括Genoa、Genoa X、Bergamo、Siena四個成員到齊,各自對應不同資料中心需求,其中比較特別的是Bergamo,看準企業IT採用雲原生技術的趨勢,Bergamo採用Zen 4c的CPU核心,將核心數提高至128個核心、256個執行緒,透過CPU核心數的增加以滿足微服務、小應用的彈性運算資源使用需要,單顆處理器擁有更多的核心,提供更高的vCPU密度,更好的能源效率,還可以簡少實體伺服器數量,降低多臺伺服器管理的複雜度,有助於企業追求淨零轉型的目標。

不讓AMD專美於前,英特爾也在2024年6月發表Xeon 6處理器,分為採用E-Core效率核心(代號Sierra Forest)及P-Core兩個版本(代號Granite Rapids)。英特爾先推出E-Core版本的Xeon 6700E處理器,其核心數提高至144個核心,提高單一機櫃可容納的CPU核心數,以採用第二代Xeon處理器的200個機櫃為例,如果採用Xeon 6700E,機櫃數大幅減少至66個機櫃。英特爾核心數上超越AMD,還計畫整合2個Xeon 6 E-Core,推出288個效率核心Xeon 6900系列。

英特爾近期發表採用P-Core的Xeon 6處理器,主要鎖定密集型工作、AI及高效能運算需求,最多擁有128個核心,因應AI運算需求,記憶體頻寬加倍,並且將AI加速功能嵌入每個核心,使其具備AI運算加速的能力。

不論是AMD或英特爾,伺服器專用處理器的核心數增加,提高單一機櫃內的CPU核心數量,對空間有限的資料中心提高運算密度,也能滿足企業採用現代化IT,例如雲原生技術的資源彈性運用需求,並滿足企業追求淨零轉型,在有限的機櫃空間下提高CPU核心數量,提高能源使用效益。

隨著企業採用AI應用,AI成為企業提高生產力重要科技,特別是竄起的生成式AI,企業內部署生成式AI,除了提高本地資料中心對AI的算力需求,也可能借助大型公有雲業者提供的工具及訓練資源,再在本地端部署推論,因此無形中也會提高企業上雲及採用雲原生技術的意願

為了和Nvidia H100競爭,兩大X86處理器業者也紛紛推出AI加速器。AMD去年發表第4代EPYC處理器同時,也發表資料中心GPU方案,Instinct MI300系列AI加速器,相較於前代的MI200系列,MI300採用3D封裝及小晶片(Chiplet)技術,內建CDNA 3矩陣核心技術,改善指令平行處理來提升運算的輸送量,搭配HBM3記憶體、AMD Infinity高速互連技術,分為MI300A及MI300X,其中MI300A採用APU架構,擁有24個Zen 4的CPU 核心,而MI300X則具有304個CDNA 3運算單元,支援192GB的HBM3記憶體。

英特爾則是在近期更新AI加速器Gaudi 3,強調為生成式AI需求設計,內建64個張量處理器核心,搭配8個矩陣乘法引擎,內建128GB HBM2e記憶體,支援24個200Gb的網路埠,提升20%的吞吐量。

AMD將發表資料中心到PC新一代AI產品

英特爾推出E-Core版Xeon 6,CPU核心數超越AMD第4代EPYC處理器後,AMD已在今年Computex預告代號為Turin的第5代EPYC處理器,採用Zen 5 核心,一舉將CPU核心數增加至192個核心、384個執行緒,使用SP5插槽,可相容於第4代EPYC處理器Genoa,並強調在AI推論應用上的表現優於英特爾處理器。相較於第4代EPYC處理器為台積電5奈米製程,第5代EPYC處理器可望採用4奈米或3奈米製程,但AMD尚未揭露詳細的規格、效能表現。

今年10月11日AMD將在美國舊金山舉行Advancing AI 2024,預告將發表資料中心到PC的AI方案,包括第5代EPYC處理器、Instinct系列AI加速器、AI PC處理器等AMD新一代AI各式運算產品。

為了擴大進攻AI應用,不只硬體產品,AMD積極地透過合作或併購等方式,提高旗下AI運算方案對開發者社群的支援,包括提供工具、函式庫、模型,例如與Hugging Face合作,AI運算產品對其AI模型的優化,去年10月AMD還併購AI軟體新創Nod.ai,以提升AMD旗下Instinct系列、EPYC處理器、Versal SoC、Ryzen AI處理器的AI部署速度,Nod.ai可透過自動化編譯器軟體,降低資料中心到邊緣運算、PC的AI模型部署。

今年8月AMD另一個大動作是,投入49億美元併購AI系統業者ZT Systems,ZT Systems專門設計、整合、製造、部署能AI系統,也是Open AI的系統供應商,這項併購案可望強化AMD在資料中心的AI基礎架構,如系統設計、整合能力。

熱門新聞

Advertisement