
Nvidia NVDA:AI 晶片 80% 毛利的懸崖風險與 ASIC 競爭結構
Nvidia 數據中心 GPU 毛利率長期維持在歷史極端高位,被市場視為垂直壟斷紅利;但 AMD MI350、Broadcom 與 Google TPU、AWS Trainium 三條 ASIC 路線同步加速,本文拆解毛利能否守住 70% 的觀察重點。
目錄
1. 公司速描
Nvidia(代號 NVDA)是目前 AI 訓練與推論加速器市場最具支配地位的供應商,旗下 H100、H200、B100、B200、GB200 系列 GPU 構成超大規模雲端業者(hyperscaler)資本支出的主要承載對象。撰文時 NVDA 的市值與股價可由 Yahoo Finance 即時查得,成為討論「AI 基礎設施估值」幾乎不可避免的中心節點。
近一年較具結構性意義的事件,是公司在多次法說會中強調數據中心 GPU 毛利率維持在歷史高位區間。依 Nvidia Investor Relations 提供的歷年 10-K 與法說會資料,數據中心業務毛利率長期顯著高於遊戲卡與專業視覺化部門,被市場解讀為「軟體生態(CUDA)綁定 + 系統級捆售(NVLink、Spectrum、InfiniBand)」雙輪鎖定的結果。
這篇要拆解的問題很單純:這個被視為垂直壟斷紅利的毛利結構,在 2026 年起 ASIC 三條路線同步成熟之後,還能不能守住 70% 這條心理防線?
2. 觀察重點 1 — 毛利率的「成本面」與「定價面」拆解
Nvidia 數據中心毛利不是單一變數,而是 CoWoS 封裝、HBM 配額、軟體議價權三層疊加。
從成本面來看,先進封裝(CoWoS-L)與 HBM3e/HBM4 是兩個關鍵供應瓶頸。台積電對 Nvidia 的封裝產能配置、以及 SK 海力士、美光、三星的 HBM 良率,都會直接決定 GPU 出貨量上限。撰文時這些上下游產能擴張節奏的精確數字,可在 台積電與三大記憶體廠的官方 IR 揭露 與 SEC EDGAR 的 10-K 原始檔 中追蹤,本文不重複轉述,以避免引入二手數字偏差。
從定價面來看,Nvidia 的議價權有三個來源:
- CUDA 軟體鎖定 — 過去十多年的 PyTorch、TensorFlow、cuDNN、TensorRT、Triton、NeMo 累積,讓客戶遷移到非 CUDA 平台的工程成本顯著高於硬體本身的價格差
- 系統級捆售 — GB200 NVL72 機櫃把 GPU、NVLink Switch、CPU、網卡綁成單一 SKU,客戶無法只挑便宜的零件
- 配額制供需失衡 — 在生成式 AI 第一波 capex 高峰期,GPU 是「分配」而非「採購」,使得單位售價脫離邊際成本
當這三個來源同時被削弱(後段詳述),毛利率回到歷史均值區間並非黑天鵝,而是一個合理的反向情境。
值得進一步拆開來看的是,這三個來源削弱的速度並不一致。CUDA 軟體鎖定的鬆動最慢,因為它涉及上萬名工程師的肌肉記憶與既有程式碼資產;系統級捆售鬆動的速度中等,取決於開放標準(UALink、Ultra Ethernet)的成熟度;配額制供需失衡最快會被打破,因為產能擴張週期一旦完成,賣方市場立刻翻轉為買方市場。因此實務上,毛利率的滑落不會是一次性事件,而是「三個鎖定機制的失效時間表交錯」所累積出的曲線。
3. 觀察重點 2 — ASIC 三條路線的時間表交錯
AMD、Broadcom + Google、AWS 這三條 ASIC 路線並不是平行的,而是在 2026 年於不同客戶層級同步成熟。
| 路線 | 主推產品 | 主要客戶層 | 結構特徵 |
|---|---|---|---|
| AMD | MI350 / MI400 系列 | 願意承受 ROCm 軟體成本的雲端與企業客戶 | 通用 GPU 第二供應商,降低議價依賴度 |
| Broadcom + Google | TPU v6 / v7(Trillium 後續) | Google 內部 + 部分外租客戶 | ASIC + 自有編譯器,完全脫離 CUDA |
| AWS | Trainium2 / Trainium3 | AWS 自家服務、Anthropic、部分新創 | 內部消化為主,壓自己 capex |
這三條路線的共同點不是「現在就比 H200 / B200 便宜」,而是「讓雲端業者不必把所有 capex 押在 Nvidia 身上」。一旦超大規模業者把自製 ASIC 比例從個位數推到雙位數百分點,Nvidia 在「配額分配模式」中的議價優勢就會被稀釋。
更值得注意的是這三條路線之間的「分工」:AMD 走的是「通用 GPU 第二供應商」的角色,目的是讓客戶在採購流程中有對照組可以議價,本身未必要拿走多少市占;Broadcom + Google TPU 走的是「完全脫離 CUDA 生態」的封閉系統路線,要證明的是大模型訓練可以在非 CUDA 平台上跑出商業可行的單位成本;AWS Trainium 走的是「內部 capex 自我消化」路線,直接把雲端業者每年數百億美元的 AI 採購預算轉化為自家芯片的研發攤提。三條路線各自從不同角度啃食同一塊毛利。
具體推進節奏,可在 Nvidia 年報關於競爭的章節(由 SEC EDGAR 搜尋 NVDA 後查詢 10-K Item 1A Risk Factors)中讀到公司自身揭露的競爭風險論述。Nvidia 法務團隊有義務揭露重大競爭威脅,這份「敵人清單」往往比賣方研究報告更誠實。
4. 觀察重點 3 — 客戶集中度與雲端 capex 的同步性
少數雲端客戶貢獻 Nvidia 數據中心收入的高度集中比例,意味著毛利率的命運綁在 4-5 家業者的 capex 決策上。
依 Nvidia 在 SEC 10-K 與 10-Q 揭露的客戶集中度資訊,數家「直接客戶」(direct customers)合計貢獻數據中心營收的相當比例,且這些直接客戶背後對應的最終支出方,正是 Microsoft、Meta、Google、Amazon、Oracle 與 CoreWeave 等少數玩家。
這帶來兩個非對稱風險:
- 上行情境 — 大客戶 capex 加速,Nvidia 配額制下定價能力延長
- 下行情境 — 任何兩家以上的客戶決定把新增 capex 預算的一定比例(例如 30% 以上)轉向自製 ASIC,Nvidia 數據中心收入的「成長曲線」會被「水位停滯」取代,而毛利率對量的敏感度遠高於市場習慣的線性外推
值得注意的是,這不是「Nvidia 訂單消失」的故事,而是「訂單還在,但邊際定價權縮水」的故事。後者對毛利率的衝擊,通常出現在大客戶議價週期重啟時,而非單季財報發布時——換句話說,是慢性結構變化,不是急性事件。
5. 觀察重點 4 — 反向訊號清單
下列任何一項出現,都是「ASIC 競爭結構真正開始啃食 Nvidia 毛利」的可證偽訊號:
- 單一超大規模客戶在法說會明確揭露,把 50% 以上的新增 AI capex 轉向自製 ASIC(目前公開資訊仍以 Nvidia 為主軸,可在各家年報中追蹤)
- Nvidia 數據中心毛利率連續兩季下滑超過 3 個百分點,且公司歸因為「產品組合」而非「一次性費用」(對照 10-Q 揭露 即可判定)
- AMD 數據中心 GPU 在某一季的營收年增率連續兩季高於 Nvidia 數據中心年增率(代表市占率反轉,需在兩家 IR 揭露中交叉比對)
- AWS、Google 開始把自製 ASIC 算力以對外租賃方式放上市場,且定價較同等級 Nvidia GPU 帳面便宜雙位數百分點(代表 ASIC 經濟效益進入外部驗證階段)
這四項都是可觀察、可量化、可在公開資料中驗證的訊號。任何一項落地,本文上述觀察重點 1 至 3 的論述都需要重新校準。反之,若這四項在未來 4-6 季都沒出現,則代表「Nvidia 毛利懸崖」是一個被高估的故事。
6. 風險與本文局限
本文沒有處理的面向:
- AI 推論市場的成本曲線 — 推論工作負載(inference)對單卡性能的敏感度低於訓練,可能成為 ASIC 先攻下的灘頭。本文未量化推論占整體 AI 算力的比重變化,因為公開資料粒度不足。
- 新興競爭者(Cerebras、Groq、SambaNova、Tenstorrent)的影響 — 這些公司目前營收規模相對 Nvidia 仍處早期,但若任一家被超大規模業者收購,結構會出現非線性變化。
- 地緣政治對台積電產能配置的衝擊 — 出口管制、晶片法案、兩岸局勢的變數,會同時影響 Nvidia 與所有 ASIC 路線,屬於系統性而非個股風險。
- 股價層面的拆解 — 本文只討論毛利結構,沒有展開估值倍數討論。撰文時的本益比、市值、預估獲利可由 Yahoo Finance NVDA 頁面 直接查證,本文不做價格預測。
讀者若要深入,可從本文「來源」清單的第一手檔案開始追蹤。Nvidia 的年報與法說會 transcript 提供的資訊密度,遠高於任何二手摘要。
來源
- Yahoo Finance — NVDA 即時報價與基本資料
- Nvidia Investor Relations — 法說會、年報、簡報
- SEC EDGAR — Nvidia 10-K / 10-Q 原始檔搜尋入口
本站為觀察研究,不作價格預測或個股薦股;上列所有數字以撰文時為準,後續發展請自行追蹤一手來源。
地緣優先的投資觀察週報
每週一封。方法論、失敗紀錄、量化驗證結果。不寄明牌,不寄投資建議。 免費訂閱即可收到精選摘要,付費解鎖完整深度研究。
- 免費版:每週 1 篇精選 + 市場速覽
- 付費版:每週 3 篇深度研究 + 數據附件
同一條思路下的其他研究

Amazon AMZN:AWS 自製 Trainium 對抗 Nvidia 稅 + 零售毛利二元結構
Amazon 雲端與零售毛利天差地遠,AWS 推 Trainium2/Inferentia2 想擺脫 Nvidia 稅,但 CUDA 生態慣性決定 ASIC 替代率上限,本文拆解這個結構性兩難。

鴻海 2317 與廣達 2382:電子代工兩條路徑的毛利分化
同樣掛著電子代工招牌,鴻海走垂直整合與多元化轉型,廣達聚焦 AI 伺服器代工。本文拆解 2024-2026 兩家毛利率分化背後的結構性原因,以及未來反向訊號的觀察點。

Alphabet GOOGL:Gemini + DeepMind + TPU 三層垂直整合的優勢與認知罰金
Alphabet 同時握有自製 TPU 晶片、DeepMind 研究院、Gemini 大模型,是少數能在訓練到推論成本具備一條龍議價權的玩家;但搜尋廣告本業正面臨 LLM 對話介面替代、美國司法部反壟斷救濟、歐盟 DMA gatekeeper 約束三重認知罰金壓力。三層垂直整合究竟是長期護城河與成本優勢,還是更顯眼的監管靶位與本業稀釋包袱,本文逐層拆解四大觀察重點。