Site logo

AI智能體狂潮引爆CPU超級週期 兩大x86芯片巨頭攜手高通(QCOM.US)奔赴狂野牛市

時間2026-05-12 11:59:49

英特爾

台積電

下載霸財智贏APP,買賣點即市預警,炒家心水交流 >>

智通財經APP獲悉,隨着Anthropic重磅推出的Claude Cowork,以及OpenClaw這類可自主執行任務的超級AI代理工具在2026年集中爆發,AI智能體浪潮可謂迅速席捲全球,AI算力架構瓶頸正在從以矩陣乘加吞吐為核心的GPU,徹底轉向以控制流、任務編排、內存/IO協調為核心的數據中心CPU,面向超大規模AI數據中心的高性能CPU陷入嚴峻供不應求態勢。

AI智能體風靡全球之際,AI算力投資主線正在從“圍繞GPU的單點算力競賽”轉向“AI智能體驅動的全棧算力系統”,下一輪超額阿爾法收益將不再只屬於AI GPU/AI ASIC領域最強龍頭名單,而會系統性擴散到CPU、存儲、PCB、液冷系統、ABF載板與廣泛晶圓代工等全棧AI算力基礎設施層,而在這種AI主線敍事轉變中,CPU、光互連與存儲芯片可能是最大贏家勢力。

正是在CPU需求大爆發背景之下,兩大x86架構CPU超級巨頭——英特爾(INTC.US)與AMD(AMD.US)股價近期攜手狂飆且不斷創下歷史新高點位。與此同時,重返數據中心CPU市場的高通(QCOM.US)近10個交易日股價瘋漲60%,凸顯出投資者們對於AI算力“關鍵瓶頸”持續升温看漲情緒。知名投資研究機構GF Securities近日發佈研究報告稱,“數據中心服務器CPU正在上演超級週期”,AMD(AMD.US)、英特爾(INTC.US)以及高通(QCOM.US)可能成為主要受益者。

1778558585(1).png

中東戰火壓不住“AI牛市”敍事! GPU不再一枝獨秀 智能體大趨勢引爆CPU

在中東戰火背景之下,經歷最新一輪的全球股票市場從階段性低點到創新高的投資者們最深刻心得無疑在於——不要把每一條地緣政治頭條都當成趨勢本身,過去數週的市場已經將“特朗普臨陣退縮”、“AI算力基礎設施鏈條驅動的科技板塊業績大幅上修趨勢”以及“美伊與以色列最終會回到談判桌”這些核心邏輯位列地緣政治等級之上。

過去兩年AI敍事幾乎被GPU壟斷,CPU一度像是AI軍備競賽裏的“配角”;但隨着開源的OpenClaw這類型代理式AI工作流(即AI智能體)主導的推理工作負載、數據編排、任務調度、內存訪問、網絡通信和多工具調用全面增長,市場可謂徹底意識到:沒有強大的CPU作為系統中樞,GPU集羣無法高效運轉。這本質上就是CPU從“被低估的基礎設施”重新回到芯片舞台最中央,帶有非常明顯的“文藝復興”式復古浪潮意味。

在智能體鏈路中,大量工作負載不僅耗費在GPU上的token生成,還消耗在Python解釋執行、網頁抓取、數據庫檢索、RAG索引訪問、詞法處理、任務隊列調度、RPC/IPC通信、KV狀態更新等CPU主導環節,這意味着決定用户體驗的,越來越不是單顆GPU的峯值算力,而是CPU是否有足夠的核心數、線程併發、緩存層級、內存帶寬、PCIe/CXL/互連調度能力去支撐高頻工具調用與高密度任務切換。一旦CPU核心、內存子系統或I/O調度不足,GPU即便名義算力充裕,也會因數據準備、任務協調和系統等待而出現利用率塌陷。

因此,毋庸置疑的是,AI算力架構的瓶頸正在從以矩陣乘加吞吐為核心的GPU,徹底轉向以控制流、任務編排、內存/IO協調為核心的數據中心CPU,這一變化的根源在於工作負載範式已經發生了本質遷移。CPU不再只是通用計算芯片,而是智能體時代的控制平面處理器、系統編排引擎與資源調度中樞,“被低估的CPU成為AI新瓶頸”並非情緒化判斷,而是AI工作負載從“推理計算問題”進一步升級為“複雜系統工程問題”後的必然結果。

早期大模型推理以“單次請求—單次生成”為主,CPU更多承擔數據搬運、請求路由與基礎調度,屬於典型的輔助控制面;但進入AI智能體與強化學習時代後,系統負載不再是單一前向推理,而是演變為包含任務規劃、工具調用、子代理協同、環境交互、狀態管理與結果驗證在內的複雜閉環。上述“編排層”(orchestration layer)本質上是強控制流、強分支判斷、強系統調用、強內存訪問的CPU密集型任務,無法被GPU高效替代,因此CPU正從過去的“配角”變成決定系統吞吐、時延與資源利用率的新瓶頸。

摩根士丹利最新預測數據顯示,智能體大爆發標誌着從計算到編排的結構性轉變,由此推導出到2030年新增325億美元至600億美元的CPU增量市場空間,並將服務器級別CPU總TAM大幅擴至825億至1100億美元量級。TrendForce的一項預測報告則顯示,在AI智能體時代,CPU:GPU配比可能會從傳統AI數據中心的1:4至1:8,向1:1至1:2大幅重估。

AI推理大浪潮推動服務器CPU需求爆發,五年期CAGR有望高達38%

GF Securities的分析師們在給客户的報告中寫道:“作為AI基礎設施建設的核心協調器,服務器CPU在過去幾個月獲得了顯著關注。這一趨勢受代理式AI/推理浪潮需求推動,由OpenClaw和Anthropic突破性成果驅動,後者年度經常性收入(ARR)在四月份飆升至440億美元。例如,在最新的業績電話會議中,AMD預計到2030年服務器CPU總可尋址市場(TAM)年複合增長率將超過35%,英特爾則表示向代理式AI的轉變正在推動CPU的史無前例結構性需求,其中數據中心的CPU實際需求比例已經從訓練階段的GPU與CPU比率8:1收緊至人工智能推理階段的4:1。

“根據我們的估算,假設推理佔AI工作負載的90%,並假設到2030年AI服務器的GPU與CPU比率達到2:1,我們預計服務器CPU總可尋址市場在2026/2027年將分別增長54%/39%,並可能將在2030年CPU市場價值達到1350億美元,而2025年僅僅約為260億美元,五年期限的複合年增長率(CAGR)有望高達38%。此外,我們預計2026/2027/2028年的新增服務器CPU需求分別為670萬、760萬和630萬單位台,同期總需求將達到3000萬、3800萬和4400萬台,意味着三年複合年增長率(CAGR)約為23%。”GF Securities的分析師們寫道。

在接下來的深入分析報告中,GF Securities指出,由於x86架構的CPU仍是數據中心服務器領域的最主流指令集架構,AMD和英特爾無疑將成為CPU超級週期的最主要受益者。

分析師們解釋道:“從基本面角度來看,英特爾受益於持續的產能加速轉化及第二季度CPU價格大幅上漲,這在我們4月16日的報告中已有説明。對於AMD,憑藉穩健的產品更新迭代路線圖和相對充足的產能,我們預計其市場份額將繼續提升。目前我們預計,英特爾旗下的DCAI業務和AMD的數據中心服務器CPU業務營收在2026年將分別增長39%和73%。”

英特爾還可能在下一代AI服務器CPU中獲得更大規模市場份額,其Xeon 6中央處理器可能將與英偉達即將量產的Rubin NVL8算力集羣中的自研ARM架構CPU配合使用,即其中一部分Vera Rubin搭載x86架構CPU,另一部搭載英偉達自研基於ARM架構的Vera CPU;AMD的Venice CPU則可能部署在其下一代的Helios機架系統和8-GPU AI服務器算力集羣中。

儘管x86仍為主流架構,但該公司認為基於ARM架構的服務器CPU也可能呈現出加速增長,通過英偉達自研的ARM架構服務器CPU——Vera系列算力集羣及搭載專用應用集成電路(即搭載AI ASIC),其中包括亞馬遜(AMZN.US)自研的Graviton 5、谷歌(GOOGL.US)自研的Axion 2——都是基於ARM架構打造的自研服務器CPU

分析師們補充道:“英偉達已為數據中心客户推出獨立Vera CPU機架(256個CPU),早期採用者包括阿里巴巴、CoreWeave、Meta和Oracle(甲骨文)。在谷歌生態系統內,TPU算力體系的GPU與CPU比率正在從之前的4:1調整至4:2。結合2026年以後的更加強勁TPU算力需求前景,我們預計Axion 2出貨將進一步加速。同時,亞馬遜AWS自研的Graviton 4/5也在通過Teton Max機架(18個CPU)及Meta的獨立Graviton機架獲得推動。對於Arm公司本身而言,該公司則將AGI CPU需求上調至200億美元。”

GF Securities的分析師們還認為,最近宣佈重新進入數據中心CPU市場的高通正在“積極開發”2028年的數據中心CPU產品線,並預計將在6月24日的投資者日獲得更多信息。

分析師們補充道:“在基準樂觀情景下,假設高通在2028年獲得30%的ARM架構CPU市場份額(意味着約400萬台單位,平均售價3000美元,淨利潤率大約30%),其帶來的淨利潤將為36億美元,相當於其全年非GAAP利潤大幅提升約30%。”

據瞭解,高通在數據中心CPU以及AI芯片領域的最新技術動態顯示,它已經從傳統的智能手機芯片設計商向數據中心AI基礎設施供應商戰略性擴張。高通已經宣佈重新進入數據中心CPU市場,這與其過去僅聚焦移動SoC領域的定位明顯不同,該公司確認正在開發定製數據中心CPU,並計劃這些CPU能夠與英偉達AI GPU加速器架構(如NVLink Fusion互連)協同工作,從而適應未來AI服務器的要求。值得注意的是,在2010年代中期就曾推出過基於ARM架構的Centriq 2400服務器處理器,具備高核心數且面向雲計算及高吞吐量工作負載,這表明其在數據中心CPU設計上擁有一定經驗。

在數據中心級AI加速器方面,高通已經推出了面向大規模AI推理的產品線——AI200和AI250加速器,這兩款高性能AI芯片專為數據中心AI推理工作負載設計,並計劃在2026年和2027年陸續商業化,這標誌着高通正試圖建立與CPU協同的AI芯片產品線,以便在AI推理及agentic AI(即AI智能體)等新興工作負載中發揮作用。它們基於高通獨家的Hexagon NPU架構,優化了內存容量和能源效率,並可配置為數據中心機櫃級(rack‑scale)解決方案,這意味着高通正在追趕英偉達和AMD在大型AI算力基礎設施領域的部署能力,同時力爭打造出低TCO(總擁有成本)的AI推理平台。

免責聲明:本資訊不構成建議或操作邀約,市場有風險,投資需謹慎!