NVDA创造了一个令人难以复制的十年神话。但理解这个神话的人都知道:它不是凭空而来的。NVDA之所以能以40%+的年化复利持续十年,是因为它占据了一个极其罕见的位置——整个时代最关键瓶颈的唯一解。
今天,AI的算力瓶颈正在从「芯片本身」向外扩散,渗透到价值链的每一个节点:芯片之间如何连接、数据中心如何散热、电力从哪里来、电网如何承载、谁来帮所有人设计下一代芯片。
这些瓶颈的受益者,才是后NVDA时代真正值得深入研究的机会所在。
理解ASIC机会的关键,是理解一个悖论:AI芯片竞争越激烈,ASIC设计服务商越受益。
超级大厂(Google、Amazon、Meta、OpenAI)都想要自研芯片,但芯片设计的复杂度远超软件工程。他们需要外部伙伴来完成从架构规划到物理实现的全流程。这就是Broadcom和Marvell的生意——他们不押注谁会赢得AI芯片战争,而是帮所有参战者造武器,并从每一方收费。
Broadcom的客户包括Google(TPU)、Meta(训练芯片)、现在又加上OpenAI;Marvell的客户覆盖多家超级大厂的自定义XPU项目。这种「雨露均沾」的商业模式,在竞争格局不确定的环境下,提供了罕见的确定性。
NVDA控制着今天的AI算力市场,但它控制不了每一家客户想要减少对它依赖的这个意愿。而每一家想要自研芯片的超级大厂,最终都要找Broadcom或Marvell谈。
从数据来看,这个逻辑已经在兑现。Broadcom的AI收入上季度同比增长106%,达到84亿美元;Marvell的数据中心收入连续多季度保持40%+增速,设计管线估值已达$750亿。两家公司的订单能见度都延伸到2028年以上。
| 标的 | 特点 | 确信度 |
|---|---|---|
AVGO Broadcom,ASIC王者,90%市占率 |
Google/Meta/OpenAI全覆盖,护城河极深 |
高 |
MRVL Marvell,ASIC第二名+光互联 |
双重受益,PEG合理,成长空间更大 |
高 |
ARM 芯片架构授权,所有ASIC的基础 |
任何人自研芯片都要付ARM授权费 |
中 |
当NVDA的GPU性能每代提升2-3倍,芯片之间的数据传输速度却没有同步跟上,整个算力集群的效率瓶颈就从「算」转移到了「传」。这是光互联成为AI时代下一个核心基础设施的根本原因。
2026年3月,NVDA向COHR和LITE各投资20亿美元,供应协议锁定至本十年末。这不是一笔财务投资,而是NVDA主动锁定自身生产链条的战略行为——它告诉你光互联是Blackwell及其后续架构不可缺少的组件。
技术路线正在从400G向800G和1.6T快速演进,3.2T已在2026年展示原型。AI模型已经大到无法放在单个数据中心里,超级大厂正在建设跨越多个数据中心、作为一个虚拟超级计算机运行的集群,而连接这些集群的只能是光纤。
这个市场从2025年的$3.75亿预计到2033年扩张至$18.36亿,CAGR约22%。更重要的是,技术代际升级的节奏(每18-24个月一次)确保了持续的需求更新。
| 标的 | 特点 | 确信度 |
|---|---|---|
COHR Coherent,光通信全栈,材料到系统 |
NVDA战略合作伙伴,1.6T量产 |
高 |
LITE Lumentum,激光器+光子集成 |
NVDA另一个战略伙伴,系统溢价 |
高 |
AAOI Applied Optoelectronics,LPO黑马 |
深度绑定MSFT,$2亿+1.6T订单 |
中 |
FN Fabrinet,光模块代工第一名 |
无厂模式,所有人都要找它生产 |
中 |
NVDA的Blackwell GPU功耗超过1000W,下一代Rubin预计更高。传统风冷系统的物理极限大约在300-400W/芯片,超过这个阈值后风冷无法有效散热。液冷不是一个更好的选项,而是高密度AI计算的唯一可行方案。
2025年2月,微软宣布将液冷定为所有新Azure AI服务器部署的标准。这个决定从单一客户的技术选择,变成了整个行业的部署规范。类似的强制性采用正在发生在所有超级大厂。
市场数据显示,液冷市场将从2025年的$4.68亿扩展至2035年的$25.80亿,CAGR约18.6%。Vertiv以11.3%的市场份额领先,订单积压达到$150亿,2025年账面订单同比增长81%,Q4 book-to-bill比率达到2.9——意味着每收入1美元,新增订单2.9美元。
与其他AI基础设施领域不同,液冷的壁垒不只是技术,更是工程集成和客户关系。Vertiv与NVDA、Intel共同为其最新芯片系统设计液冷解决方案,这种深度嵌入使其在单一客户中形成了多年的锁定。
| 标的 | 特点 | 确信度 |
|---|---|---|
VRT Vertiv,液冷+电源管理一体化 |
市场领导者,NVDA战略伙伴,端到端方案 |
高 |
SMCI Super Micro,AI服务器+液冷集成 |
直接面对AI服务器买家,交付速度快 |
中 |
2026年4月,Bloomberg报道美国计划今年投建的数据中心中,超过一半面临延期或取消——不是因为缺钱,也不是缺地,而是缺变压器和配电设备。这一个细节,将电力基础设施从投资者的「背景噪声」推到了舞台中央。
AI数据中心需要的是7×24小时不间断的基载电力,风能和太阳能的间歇性无法满足这个要求。这就是为什么微软签了20年的核电协议重启三哩岛,Meta签了1.1GW的核电协议,超级大厂们开始直接绕过电网与发电厂谈合同。
电力这条主线由两个子市场构成:发电侧(核电运营商CEG、VST)和输配电设备侧(GEV、ETN)。两者的逻辑不同但都成立。
发电侧的故事是核电资产重新定价。核电厂此前被市场按照商品化电力定价,但它提供的24/7零碳基载电力在AI时代有了溢价逻辑,超级大厂愿意签长期协议锁定供应。Constellation的三哩岛重启协议、Vistra的核电扩张,都是这个逻辑的具体执行。
输配电设备的故事更直接。GE Vernova上周四(4月22日)上调全年业绩指引,原因是单季数据中心电气化订单就超过了去年全年总和。Eaton的数据中心订单积压等于2025年全年建设量的11倍。这不是预期,这是已经签约的订单。
| 标的 | 特点 | 确信度 |
|---|---|---|
GEV GE Vernova,燃气轮机+电网设备 |
YTD +70%,$1630亿积压,CEO称"市场10%都没到" |
高 |
ETN Eaton,配电设备+数据中心电源管理 |
11年积压,数据中心专用解决方案领导者 |
高 |
CEG Constellation Energy,美国最大核电运营商 |
MSFT/Meta 20年核电协议,19400MW核电容量 |
中 |
VST Vistra,核电+天然气复合型 |
估值低于CEG,ERCOT市场监管相对宽松 |
中 |
这是整张地图里逻辑最简单、确定性最高的一层。
NVDA的GPU在台积电制造。Google的TPU在台积电制造。AMD的MI系列在台积电制造。Broadcom和Marvell设计的ASIC在台积电制造。Apple的M系列芯片在台积电制造。全球92%的先进AI芯片,都在台积电制造。
AI芯片竞争越激烈,台积电的订单总量越大。没有任何一种竞争结果会对台积电不利——除非某个主要客户整体萎缩,而这在AI Capex持续扩张的背景下几乎不可能发生。
台积电Q1 2026利润同比增长58%,HPC(高性能计算,主要是AI芯片)已占营收61%,全年指引30%增速。管理层明确表示「需求远超供给,sold-out状态贯穿2026全年」。
这个生意的护城河不是技术一代的领先,而是数十年工艺积累、数万名工程师的经验、以及整个客户生态的深度嵌入。英特尔试图追赶,三星试图追赶,三星和英特尔都还没有追上。这是目前所有已知竞争中,防御最稳固的商业模式。
唯一需要管理的风险是地缘政治,而不是商业竞争。这个风险无法通过分析消除,只能通过仓位控制来管理。
| 标的 | 特点 | 确信度 |
|---|---|---|
TSM 台积电,全球先进芯片唯一制造者 |
竞争中立,百家争鸣最终受益者,护城河最深 |
高 |
AMAT Applied Materials,半导体设备第一 |
台积电扩产必须购买AMAT设备 |
中 |
ASML ASML,EUV光刻机垄断者 |
任何先进制程扩产的必要条件,全球唯一供应商 |
高 |
训练一个大模型需要大量算力,但推理(inference)——也就是让模型实时回答问题——对内存带宽的要求同样极为苛刻。模型越大,推理时需要的内存越多,读写速度越关键。
HBM(高带宽内存)是目前AI GPU和TPU的标准内存方案。NVDA的H100、A100,以及AMD的MI300X,都大量使用HBM。全球HBM市场由SK Hynix、Samsung、Micron三家主导,其中SK Hynix供应了全球约62%的HBM。
MU(Micron)是这条主线里对美国投资者最直接可投的标的,也是你此前深度研究过的公司。Micron的HBM3E已被NVDA纳入供应链,其企业级SSD业务也随AI数据中心扩张同步受益。
这条主线目前面临的挑战是:存储行业的周期性相对较强,价格波动会影响利润。但AI对HBM的需求相对刚性——GPU性能提升,对应的HBM需求成比例增长——使得这一代存储周期的韧性明显强于前几轮。
| 标的 | 特点 | 确信度 |
|---|---|---|
MU Micron,HBM3E量产+企业SSD |
美股可直接投资,NVDA供应链成员 |
中 |
000660.KS SK Hynix,HBM全球第一 |
62%市占率,但需通过ADR或韩国市场投资 |
早期 |
按照「离NVDA的距离」和「当前确信度」排列,越靠前的层次,逻辑越已被市场验证。
| 层次 | 核心标的 | 投资逻辑一句话 | 当前状态 | 主要风险 |
|---|---|---|---|---|
| ASIC设计使能 | AVGO · MRVL · ARM | 帮所有人造芯片,竞争加剧反而受益更多 | 已验证 | 客户自建能力提升 |
| 光互联 | COHR · LITE · AAOI · FN | 算力集群扩大的物理必需品,NVDA已战略押注 | 已验证 | 技术路线变化,竞争加剧 |
| 液冷热管理 | VRT · SMCI | 高功耗芯片的物理定律强制要求,非可选项 | 已验证 | 竞争者进入,定价压力 |
| 电力与电网 | GEV · ETN · CEG · VST | 数据中心建设的真正瓶颈,$1.4万亿需求在途 | 已验证 | 监管审批,执行风险 |
| 先进制造 | TSM · ASML · AMAT | 所有芯片的最终制造者,竞争中立,护城河最深 | 已验证 | 台海地缘政治风险 |
| 高速内存 | MU · SK Hynix | 推理时代的内存需求与模型规模正相关 | 验证中 | 存储周期性,价格波动 |
这张地图的价值不在于提供一个可以直接照搬的股票清单,而在于提供一个寻找下一个Alpha的思维框架:在每一次大规模技术建设浪潮中,沿着价值链找到那些「无论谁赢最终都会找我」的公司。
NVDA是这张地图的原点,但它不是终点。随着AI从训练时代进入推理时代、从单数据中心进入分布式集群、从高端GPU垄断进入ASIC竞争,价值链上的利润分配正在持续重构。
识别下一个「卖铲子的人」,需要的不是预测谁会赢,而是找到那个无论谁赢都必须经过的节点。变压器短缺让GEV受益;ASIC竞争让AVGO受益;模型集群化让光互联受益;功耗增加让液冷受益。
瓶颈在哪里,机会就在哪里。这个原则,在过去十年适用于NVDA,在未来十年同样适用于价值链的每一个新瓶颈。