6月15日消息,AMD,英偉達(dá)的頭號(hào)競(jìng)爭(zhēng)對(duì)手,終于發(fā)布了令人期待已久的AI芯片。2014年,蘇姿豐成為AMD CEO時(shí),這家芯片企業(yè)正面臨生存危機(jī),裁員約1/4,股價(jià)徘徊在2美元。但在她的領(lǐng)導(dǎo)下,AMD實(shí)現(xiàn)了漂亮的轉(zhuǎn)身,9年來(lái)股價(jià)飆升近30倍,對(duì)英偉達(dá)和英特爾兩家頂級(jí)芯片巨頭形成了制衡。HBM 密度是英偉達(dá) H100 的 2.4 倍,帶寬是英偉達(dá) H100 的 1.6 倍。
隨著生成式AI技術(shù)的快速發(fā)展,英偉達(dá)GPU成為各家大廠的爭(zhēng)相搶購(gòu)對(duì)象,AMD也成為了關(guān)注的焦點(diǎn)。AMD宣布了下一代AI芯片MI300X加速器的發(fā)布,這是一款純GPU版本,采用AMD CDNA 3技術(shù),使用多達(dá)192 GB的HBM3高帶寬內(nèi)存來(lái)加速大型語(yǔ)言模型和生成式AI計(jì)算。主要客戶將于第三季度開始試用MI300X,第四季度開始全面生產(chǎn)。
蘇姿豐表示,人工智能是AMD“最大、最具戰(zhàn)略意義的長(zhǎng)期增長(zhǎng)機(jī)會(huì)”。現(xiàn)場(chǎng),AMD還宣布與明星AI獨(dú)角獸企業(yè)Hugging Face達(dá)成了一項(xiàng)新的合作伙伴關(guān)系,為AMD的CPU、GPU和其他AI硬件優(yōu)化他們的模型。
除了AI芯片外,AMD還推出了專為云計(jì)算和超大規(guī)模用戶設(shè)計(jì)的全新EPYC服務(wù)器處理器,代號(hào)為Bergamo,每個(gè)插槽最多包含128個(gè)內(nèi)核,并針對(duì)各種容器化工作負(fù)載進(jìn)行了優(yōu)化。亞馬遜旗下云計(jì)算部門AWS、甲骨文云、Meta、微軟Azure的高管均來(lái)到現(xiàn)場(chǎng),分享了在其數(shù)據(jù)中心使用AMD芯片及軟件的感受。
MI300X加速器是AMD Instinct MI300系列的新成員,專為大型語(yǔ)言模型和其他先進(jìn)AI模型而設(shè)計(jì)。它由12個(gè)5nm chiplets封裝而成,共有1530億顆晶體管。這款A(yù)I芯片舍棄了APU的24個(gè)Zen內(nèi)核和I/O芯片,采用更多的CDNA 3 GPU和更大的192GB HBM3,提供5.2 TB/s的內(nèi)存帶寬和896GB/s的無(wú)限帶寬。MI300X的HBM密度是英偉達(dá)H100的2.4倍,帶寬是其1.6倍,這意味著AMD可以運(yùn)行比英偉達(dá)芯片更大的模型。
AMD演示了在單個(gè)MI300X GPU上運(yùn)行擁有400億個(gè)參數(shù)的Falcon-40B大型語(yǔ)言模型,讓它寫了一首關(guān)于舊金山的詩(shī)。蘇姿豐表示:“模型尺寸變得越來(lái)越大,你需要多個(gè)GPU來(lái)運(yùn)行最新的大型語(yǔ)言模型?!钡S著AMD芯片上內(nèi)存的增加,開發(fā)者將不再需要那么多GPU。
另一款MI300A被蘇姿豐稱作“面向AI和高性能計(jì)算的全球首款A(yù)PU加速器”,將多個(gè)CPU、GPU和高帶寬內(nèi)存封在一起,在13個(gè)chiplets上擁有1460億顆晶體管。MI300A采用5nm和6nm制程、CDNA 3 GPU架構(gòu),搭配24個(gè)Zen 4核心、128GB HBM3,相比MI250提供了8倍以上的性能和5倍以上的效率。AMD還公布了一種AMD Infinity架構(gòu)。該架構(gòu)將8個(gè)MI300X加速器連接在一個(gè)考慮了AI推理和訓(xùn)練的標(biāo)準(zhǔn)系統(tǒng)中,提供共1.5TB HBM3內(nèi)存。
這些新產(chǎn)品的發(fā)布表明了AMD在AI領(lǐng)域的強(qiáng)勁競(jìng)爭(zhēng)力,將對(duì)英偉達(dá)構(gòu)成重大挑戰(zhàn)。?