亚洲天堂2017无码高清_91蜜桃在线观看_丰满老熟好大bbb视频_丰满人妻少妇久久无码_丁香婷婷综合激情国产国产h高清视频在线_欧美a级毛欧美1级a大片_亞洲精品國產不卡在線觀看_女人毛片水真的多免费视频_色噜噜狠狠成人中文小说_最近免费中文字幕大全高清mv

返回列表

2024年AI芯片,競爭加劇

21
Feb 2024
分享:

作為人工智能領(lǐng)域的領(lǐng)軍企業(yè),英偉達(dá)有著強(qiáng)大的技術(shù)實力和廣泛的應(yīng)用場景,在過去一年中,生成式 AI 的需求爆發(fā)為其帶來了巨大的增長機(jī)遇。

根據(jù)富國銀行的統(tǒng)計,英偉達(dá)目前在數(shù)據(jù)中心 AI 市場擁有 98% 的市場份額,而 AMD 僅有 1.2% 的市場份額,英特爾則只有不到 1%。

由于英偉達(dá)的 AI 芯片價格高昂,且存在著供應(yīng)不足的問題,這也迫使一些客戶希望選擇其他的替代產(chǎn)品。在競爭對手林立的同時,英偉達(dá)也正不斷推動產(chǎn)品研發(fā)和加快更新迭代速度。


英偉達(dá):兩年 12 款 GPU

 近日,servethehome 披露了英偉達(dá)的數(shù)據(jù)中心產(chǎn)品路線圖,展示了英偉達(dá)面向人工智能市場的產(chǎn)品規(guī)劃,將推出 H200、B100 和 X100 等多款 GPU。 

英偉達(dá)正計劃增加面向數(shù)據(jù)中心市場的產(chǎn)品種類,推出多款面向 AI 計算和 HPC 的產(chǎn)品,讓不同的客戶可以有針對性購買產(chǎn)品,降低購買芯片難度。通過架構(gòu)圖可以看到,未來英偉達(dá)將會對基于 Arm 架構(gòu)的產(chǎn)品和基于 x86 架構(gòu)的產(chǎn)品分開。

H200:2024 年第二季度開始供貨

2023 年 11 月 13 日,英偉達(dá)宣布推出 NVIDIA HGX H200,為全球領(lǐng)先的 AI 計算平臺帶來強(qiáng)大動力。該平臺基于 NVIDIA Hoppe 架構(gòu),配備 NVIDIA H200 Tensor Core GPU 和高級內(nèi)存,可處理生成 AI 和高性能計算工作負(fù)載的海量數(shù)據(jù)。H200 將于 2024 年第二季度開始向全球系統(tǒng)制造商和云服務(wù)提供商供貨。

NVIDIA H200 是首款提供 HBM3e 的 GPU,HBM3e 具有更快、更大的內(nèi)存,可加速生成式 AI 和大型語言模型,同時推進(jìn) HPC 工作負(fù)載的科學(xué)計算。借助 HBM3e,NVIDIA H200 以每秒 4.8 TB 的速度提供 141GB 內(nèi)存,與前身 NVIDIA A100 相比,容量幾乎翻倍,帶寬增加 2.4 倍。

英偉達(dá)表示,H200 可以部署在各種類型的數(shù)據(jù)中心中,包括本地、云、混合云和邊緣。

L40S:2023 年秋季推出

L40S 是英偉達(dá)最強(qiáng)大的 GPU 之一,其在 2023 年推出,其旨在處理下一代數(shù)據(jù)中心工作負(fù)載:生成式 AI、大型語言模型(LLM)推理和訓(xùn)練,3D 圖形渲染、科學(xué)模擬等場景。

與前一代 GPU(如 A100 和 H100)相比,L40S 在推理性能上提高了高達(dá) 5 倍,在實時光線追蹤(RT)性能上提高了 2 倍。內(nèi)存方面,它配備 48GB 的 GDDR6 內(nèi)存,還加入了對 ECC 的支持,在高性能計算環(huán)境中維護(hù)數(shù)據(jù)完整性還是很重要的。

L40S 配備超過 18,000 個 CUDA 核心,這些并行處理器是處理復(fù)雜計算任務(wù)的關(guān)鍵。L40S 更注重可視化方面的編解碼能力,而 H100 則更專注于解碼。盡管 H100 的速度更快,但價格也更高。

GH200/GH200NVL:2024 年第二季度投產(chǎn)

2023 年 8 月,英偉達(dá)宣布推出新一代 GH200 Grace Hopper 超級芯片,新芯片將于 2024 年第二季投產(chǎn)。

NVIDIA GH200,結(jié)合了 H200 GPU 和 Grace CPU,將 Hopper 架構(gòu) GPU 和 Arm 架構(gòu) Grace CPU 結(jié)合,使用了 NVLink-C2C 將兩者連接起來。每個 Grace Hopper Superchip 包含了 624GB 的內(nèi)存,其中有 144GB 的 HBM3e 和 480GB 的 LPDDR5x 內(nèi)存。

GH200 和 GH200NVL 將使用基于 Arm 的 CPU 和 Hopper 解決大型語言模型的訓(xùn)練和推理問題。GH200NVL 采用了 NVL 技術(shù),具有更好的數(shù)據(jù)傳輸速度。

此外,「B」系列 GPU 也有望在 2024 年下半年推出,替代之前的第九代 GPU Hopper。

B100、B40、GB200、GB200NVL 也將在 2024 推出

英偉達(dá)計劃推出用基于 x86 架構(gòu)的 B100 接替 H200,計劃用基于 ARM 架構(gòu)的推理芯片 GB200 替代 GH200。此外,英偉達(dá)也規(guī)劃了 B40 產(chǎn)品來替代 L40S,以提供更好的面向企業(yè)客戶的 AI 推理解決方案。

根據(jù)英偉達(dá)公布的信息,該公司計劃于 2024 年發(fā)布 Blackwell 架構(gòu),而采用該架構(gòu)的 B100 GPU 芯片預(yù)計將大幅提高處理能力,初步評估數(shù)據(jù)表明,與現(xiàn)有采用 Hopper 架構(gòu)的 H200 系列相比,性能提升超過 100%。這些性能提升在 AI 相關(guān)任務(wù)中尤為明顯,B100 在 GPT-3 175B 推理性能基準(zhǔn)測試中的熟練程度就證明了這一點。

X100 計劃 2025 年發(fā)布

英偉達(dá)還披露了 X100 芯片的計劃,計劃于 2025 年發(fā)布,該芯片將擴(kuò)大產(chǎn)品范圍,包括企業(yè)用途的 X40 和 GX200,在 Superchip 配置中結(jié)合 CPU 和 GPU 功能。同樣,GB200 預(yù)計將效仿 B100,融入超級芯片概念。



從英偉達(dá)的產(chǎn)品路線來看,在未來 1-2 年,AI 芯片市場將再次天翻地覆。

 

AMD 為生成式 AI 和大規(guī)模 AI 系統(tǒng)的可靠替代者

在英偉達(dá)占據(jù)絕對地位的 AI 芯片領(lǐng)域中,AMD 是為數(shù)不多具備可訓(xùn)練和部署 AI 的高端 GPU 公司之一,業(yè)界將其定位為生成式 AI 和大規(guī)模 AI 系統(tǒng)的可靠替代者。AMD 與英偉達(dá)展開競爭的戰(zhàn)略之一,就包括功能強(qiáng)大的 MI300 系列加速芯片。當(dāng)前,AMD 正在通過更強(qiáng)大的 GPU、以及創(chuàng)新的 CPU+GPU 平臺直接挑戰(zhàn)英偉達(dá) H100 的主導(dǎo)地位。

AMD 最新發(fā)布的 MI300 目前包括兩大系列,MI300X 系列是一款大型 GPU,擁有領(lǐng)先的生成式 AI 所需的內(nèi)存帶寬、大語言模型所需的訓(xùn)練和推理性能;MI300A 系列集成 CPU+GPU,基于最新的 CDNA 3 架構(gòu)和 Zen 4 CPU,可以為 HPC 和 AI 工作負(fù)載提供突破性能。毫無疑問,MI300 不僅僅是新一代 AI 加速芯片,也是 AMD 對下一代高性能計算的愿景。

MI300X 加速卡已在 2023 年推出

AMD MI300X 擁有最多 8 個 XCD 核心,304 組 CU 單元,8 組 HBM3 核心,內(nèi)存容量最大可達(dá) 192GB,相當(dāng)于英偉達(dá) H100(80GB)的 2.4 倍,同時 HBM 內(nèi)存帶寬高達(dá) 5.3TB/s,Infinity Fabric 總線帶寬 896GB/s。擁有大量板載內(nèi)存的優(yōu)點是,只需更少的 GPU 來運(yùn)行內(nèi)存中的大模型,省去跨越更多 GPU 的功耗和硬件成本。

2023 年 12 月,AMD 在推出旗艦 MI300X 加速卡之外,還宣布 Instinct MI300A APU 已進(jìn)入量產(chǎn)階段,預(yù)估 2024 年開始交付,上市后有望成為世界上最快的 HPC 解決方案。

MI300A:預(yù)估 2024 年開始交付

MI300A 是全球首款適用于 HPC 和 AI 的數(shù)據(jù)中心 APU,結(jié)合了 CDNA 3 GPU 內(nèi)核、最新的基于 AMD「Zen 4」x86 的 CPU 內(nèi)核以及 128GB HBM3 內(nèi)存,通過 3D 封裝和第四代 AMD Infinity 架構(gòu),可提供 HPC 和 AI 工作負(fù)載所需的性能。與上一代 AMD Instinct MI250X5 相比,運(yùn)行 HPC 和 AI 工作負(fù)載,F(xiàn)P32 每瓦性能為 1.9 倍。

能源效率對于 HPC 和 AI 領(lǐng)域至關(guān)重要,因為這些應(yīng)用中充斥著數(shù)據(jù)和資源極其密集的工作負(fù)載。MI300A APU 將 CPU 和 GPU 核心集成在一個封裝中,可提供高效的平臺,同時還可提供加速最新的 AI 模型所需的訓(xùn)練性能。在 AMD 內(nèi)部,能源效率的創(chuàng)新目標(biāo)定位為 30×25,即 2020-2025 年,將服務(wù)器處理器和 AI 加速器的能效提高 30 倍。

 

AMD 市場會有小幅上漲

綜合來看,全球 AI 熱潮在 2023 年開始爆發(fā),2024 年將繼續(xù)成為業(yè)界的焦點。與 2023 年不同的是,過去在 AI HPC 領(lǐng)域占據(jù)主導(dǎo)地位的英偉達(dá),今年將面臨 AMD MI300 系列產(chǎn)品的挑戰(zhàn)。

由于微軟、Meta 等云端服務(wù)大廠在一兩年前就開始陸續(xù)預(yù)訂英偉達(dá)的 MI300 系列產(chǎn)品,并要求 ODM 廠商開始設(shè)計專用的 AI 服務(wù)器,使用 MI300 系列產(chǎn)品線,以分散風(fēng)險和降低成本。業(yè)界預(yù)計,今年 AMD 的 MI300 系列芯片市場需求至少達(dá)到 40 萬顆,如果臺積電提供更多的產(chǎn)能支持,甚至有機(jī)會達(dá)到 60 萬顆。

AMD 的 CEO 蘇姿豐在圣何塞舉辦的 AMD Advancing AI 活動上談到,包括 GPU、FPGA 等在內(nèi)的數(shù)據(jù)中心加速芯片,未來四年每年將以 50% 以上的速度增長,從 2023 年的 300 億市場規(guī)模,到 2027 年將超過 1500 億。她表示,從業(yè)多年,這種創(chuàng)新速度比她以往見到的任何技術(shù)都快。

根據(jù)富國銀行的預(yù)測,AMD 雖然在 2023 年的 AI 芯片的營收僅為 4.61 億美元,但是 2024 年將有望增長到 21 億美元,將有望拿到 4.2% 的市場份額。英特爾也可能拿到將近 2% 的市場份額。這將導(dǎo)致英偉達(dá)的市場份額可能將小幅下滑到 94%。

不過,根據(jù)蘇姿豐在 1 月 30 日的電話會議上公布的數(shù)據(jù)顯示,AMD 在 2023 年四季度的 AI 芯片營收已經(jīng)超越此前預(yù)測的 4 億美元,同時 2024 年 AMD 的 AI 芯片營收預(yù)計也將達(dá)到 35 億美元,高于先前預(yù)測的 20 億美元。如果,AMD 的預(yù)測數(shù)據(jù)準(zhǔn)確的話,那么其 2024 年在 AI 芯片市場的份額有望進(jìn)一步提高。

當(dāng)然,英偉達(dá)也并不會放任其在 AI 市場的壟斷地位受到侵蝕。在目前的人工智能智能加速芯片市場,英偉達(dá)的 A100/H100 系列 AI GPU 雖然價格高昂,但一直是市場的首選。今年英偉達(dá)更為強(qiáng)大的 Hopper H200 和 Blackwell B100 也將會上市。而根據(jù)一些研究機(jī)構(gòu)的預(yù)測,英偉達(dá)計劃今年銷售約 150 萬至 200 萬個 AI GPU,這可能將是其 2023 年銷量的三倍,這也意味著英偉達(dá)將會徹底解決供應(yīng)的瓶頸問題,面對 AMD 和英特爾的競爭,屆時英偉達(dá)的價格策略可能也會有所調(diào)整。

 

 

更多的挑戰(zhàn)即將到來

英偉達(dá)要面對的不僅僅是 AMD,如今自研 AI 芯片的風(fēng)潮正在科技巨頭之間興起。

今年 2 月,科技巨頭 Meta Platforms 對外證實,該公司計劃今年在其數(shù)據(jù)中心部署最新的自研定制芯片,并將與其他 GPU 芯片協(xié)調(diào)工作,旨在支持其 AI 大模型發(fā)展。

研究機(jī)構(gòu) SemiAnalysis 創(chuàng)始人 Dylan Patel 表示,考慮到 Meta 的運(yùn)營規(guī)模,一旦大規(guī)模成功部署自研芯片,有望將每年節(jié)省數(shù)億美元能源成本,以及數(shù)十億美元芯片采購成本。

OpenAI 也開始尋求數(shù)十億美元的資金來建設(shè)人工智能芯片工廠網(wǎng)絡(luò)。

外媒報道,OpenAI 正在探索制造自己的人工智能芯片。并且 Open AI 的網(wǎng)站開始招募硬件相關(guān)的人才,官方網(wǎng)站上有數(shù)個軟硬件協(xié)同設(shè)計的職位在招聘,同時在去年九月 OpenAI 還招募了人工智能編譯器領(lǐng)域的著名牛人 Andrew Tulloch 加入,這似乎也在印證 OpenAI 自研芯片方面的投入。

不止是 Meta 和 OpenAI,據(jù) The Information 統(tǒng)計,截至目前,全球有超過 18 家用于 AI 大模型訓(xùn)練和推理的芯片設(shè)計初創(chuàng)公司,包括 Cerebras、Graphcore、壁仞科技、摩爾線程、d-Matrix 等,融資總額已超過 60 億美元,企業(yè)整體估值共計超過 250 億美元(約合 1792.95 億元人民幣)。

這些公司背后的投資方包括紅杉資本、OpenAI、五源資本、字節(jié)跳動等。如果加上微軟、英特爾、AMD 等科技巨頭和芯片龍頭的「造芯」行動,對標(biāo)英偉達(dá)的 AI 芯片企業(yè)數(shù)量最終就將超過 20 家。

如此來看,盡管英偉達(dá)在數(shù)據(jù)中心、游戲和人工智能加速器等關(guān)鍵增長領(lǐng)域保持著引人注目的技術(shù)領(lǐng)導(dǎo)地位,但公司面臨越來越多的競爭威脅。2024 年英偉達(dá)也必然會面臨更大的挑戰(zhàn)。


*聲明:本文系原作者創(chuàng)作。文章內(nèi)容系其個人觀點,我方轉(zhuǎn)載僅為分享與討論,不代表我方贊成或認(rèn)同,如有異議,請聯(lián)系15950995158。