八、HBM三家利润会超过英伟达?
把整条推理产业链拆完之后,回头看最有意思的现象是:这条链上最赚钱的环节不是设计 AI 芯片的人,是给 AI 芯片配内存的人。
HBM 三家可能赚得比英伟达还多?
NVIDIA FY26 营收约 $216B,GAAP 净利润约 $120B,当前市值约 $4.85T。
SK Hynix、Samsung DS、Micron 在 2026 年内存超级周期下,合计利润达到或超过 $150B 是有可能的。
三家当前合计净利润已经接近英伟达单家。但市值相差仍大,因三星半导体没有单独上市,但如果参照另外2家给一个平均的业务估值,并把三家相家,目前市值差不多是2-2.5万亿,也就是三家合计差不多英伟达的40-50%。
未来三家合计利润超过英伟达也不算太惊奇,主要得益于几个点:
一是HBM 工艺门槛不亚于 GPU
HBM 的物理制造与封装良率门槛,已经高到不亚于先进逻辑芯片;而且它不是“设计一颗芯片”,而是把 12–16 层 DRAM 稳定、低功耗、高良率地堆起来。
GPU 的真正门槛在三件事——架构设计(CUDA + 软件栈 + NVLink)、流片制造(台积电先进工艺)、生态系统(开发者 + 库 + 框架)。其中英伟达自己掌握的是架构和生态,制造这一块靠台积电。
HBM 的门槛在四件事——DRAM 工艺、3D 堆叠 + TSV、MR-MUF / hybrid bonding 等封装工艺、客户协同设计。这四件事三家自己掌握。
把工艺难度横向比一下:
GPU 是平面单层晶圆,HBM 是 12-16 层垂直堆叠
GPU 良率挑战在晶体管密度,HBM 良率挑战在堆叠 + TSV + 焊接 + 封装四个维度同时
GPU 架构突破靠英伟达自己设计,HBM 架构突破靠三家与客户共同设计基础芯片
三星几次卡在 HBM3E 12-Hi 的 NVIDIA 资格认证上——这就是工程难度的直接证据
HBM 物理制造的难度确实和 GPU 相比并不显得低。这也是为什么这个市场只有 3 家玩家加 1 个追赶者,而 GPU 市场有 10+ 家玩家。
二是HBM 是"基础供给",GPU 是"单一架构"
这一层比工艺门槛更关键。
GPU 市场是英伟达 vs AMD vs Trainium vs TPU vs Maia vs MTIA vs Cerebras vs Groq vs 华为昇腾——至少 10+ 玩家在竞争同一份算力订单。未来 5 年英伟达在 AI 加速器上的份额大概率会从 80%+ 下降到 50-60% 区间——不是因为英伟达做得不好,是因为云厂商不愿意把命运绑在一家身上,所有 hyperscaler 都在自研 ASIC。
但 HBM 不一样。所有这些 GPU、ASIC、TPU、Trainium、Maia、MTIA 都需要 HBM——除了 Cerebras 走片上 SRAM 那条极端路径(占比很小)。
所以 HBM 三家的真正护城河不是"在 HBM 内部独占份额",是"无论谁赢算力之战,HBM 三家都拿到一笔"。
GPU 厂家之间的份额转移会让英伟达的利润被分摊,但不会让 HBM 三家的总订单减少。HBM 是 AI 算力赛道的基础供给,GPU 是赛道里互相竞争的单一架构。前者比后者更接近"卖铲子"的位置。
把工艺门槛 + 行业结构合起来看,5 年内三家合计净利润超过英伟达单家的概率不低。
三是HBM 在产业链上的议价权会超过GPU
NVIDIA 一颗 GPU 的物料成本里,HBM 占大约 30-40%。AMD MI455X 的物料成本里 HBM 占比可能更高(因为它配 432 GB HBM4,比 NVIDIA 多)。HBM 三家拿走的利润占整条链的比例,正在追上 GPU 设计公司本身。
GPU可以扩产——TSMC 多开几条 3nm/2nm 产线,NVIDIA 和 AMD 可以快速增加 GPU 出货。但 HBM 的产能扩张要新建晶圆厂,3-5 年。所以未来6-12 个月,HBM 是整条链上议价权最强的环节。
关注存储,主要关注三件事
第一是 HBM TAM 的真实增长速度。美光的 350 亿到 1000 亿(2025-2028)是个非常激进的预测。如果 reasoning 模型 + Agent + 长上下文这三件事真的让 HBM 需求曲线一直陡峭,这个数字会兑现;如果其中任何一件出现退潮(比如 Google 在 2026 年发布的某种压缩技术让单 token HBM 消耗下降),数字会打折。
第二是 产能扩充的速度。HBM 是 DRAM 的一个分支,DRAM 历史上每 3-4 年一个周期。三星 P5 厂 2028 投产、海力士 M15X 厂 2027 投产、美光 Boise/Clay 厂 2026-2027 陆续上线,2028-2029 年 HBM 产能会涌出来一大波。
第三是 晶圆级 + ASIC + 端侧推理的份额抢夺。Google TPU 8i + Microsoft Maia 200 加大片上 SRAM、Cerebras 把内存全焊到芯片本体上、NVIDIA Rubin CPX 用 GDDR7、Intel Crescent Island 用 LPDDR5X——这些都在试图减少对 HBM 的依赖。如果这些方案被市场广泛接受,HBM TAM 增长会放慢。