AI Era Investment Research
2026年4月25日 · 后NVDA时代专题
机会地图 · 六个细分领域深度梳理

芯片只是起点
AI的真正基础设施正在这里

当NVDA的超额收益开始被市场充分定价,下一批「卖铲子的人」已经出现在价值链的每一个瓶颈节点上。这是一份关于AI后NVDA时代,六条可投资主线的完整梳理。

NVDA创造了一个令人难以复制的十年神话。但理解这个神话的人都知道:它不是凭空而来的。NVDA之所以能以40%+的年化复利持续十年,是因为它占据了一个极其罕见的位置——整个时代最关键瓶颈的唯一解。

今天,AI的算力瓶颈正在从「芯片本身」向外扩散,渗透到价值链的每一个节点:芯片之间如何连接、数据中心如何散热、电力从哪里来、电网如何承载、谁来帮所有人设计下一代芯片。

这些瓶颈的受益者,才是后NVDA时代真正值得深入研究的机会所在。

01
第一层 · 算力设计使能
ASIC设计:帮所有人造下一代铲子
竞争加剧期最确定的受益者

理解ASIC机会的关键,是理解一个悖论:AI芯片竞争越激烈,ASIC设计服务商越受益。

超级大厂(Google、Amazon、Meta、OpenAI)都想要自研芯片,但芯片设计的复杂度远超软件工程。他们需要外部伙伴来完成从架构规划到物理实现的全流程。这就是Broadcom和Marvell的生意——他们不押注谁会赢得AI芯片战争,而是帮所有参战者造武器,并从每一方收费。

Broadcom的客户包括Google(TPU)、Meta(训练芯片)、现在又加上OpenAI;Marvell的客户覆盖多家超级大厂的自定义XPU项目。这种「雨露均沾」的商业模式,在竞争格局不确定的环境下,提供了罕见的确定性。

NVDA控制着今天的AI算力市场,但它控制不了每一家客户想要减少对它依赖的这个意愿。而每一家想要自研芯片的超级大厂,最终都要找Broadcom或Marvell谈。

从数据来看,这个逻辑已经在兑现。Broadcom的AI收入上季度同比增长106%,达到84亿美元;Marvell的数据中心收入连续多季度保持40%+增速,设计管线估值已达$750亿。两家公司的订单能见度都延伸到2028年以上。

AVGO AI季度营收
$84亿
YoY +106%,定制ASIC市场份额约90%
MRVL 设计管线估值
$750亿
超50个机会,20+多代XPU合同锁定
标的特点确信度
AVGO
Broadcom,ASIC王者,90%市占率
Google/Meta/OpenAI全覆盖,护城河极深
MRVL
Marvell,ASIC第二名+光互联
双重受益,PEG合理,成长空间更大
ARM
芯片架构授权,所有ASIC的基础
任何人自研芯片都要付ARM授权费
02
第二层 · 芯片内外连接
光互联:算力扩展的物理极限
从GPU内部到数据中心之间,光是唯一的答案

当NVDA的GPU性能每代提升2-3倍,芯片之间的数据传输速度却没有同步跟上,整个算力集群的效率瓶颈就从「算」转移到了「传」。这是光互联成为AI时代下一个核心基础设施的根本原因。

2026年3月,NVDA向COHR和LITE各投资20亿美元,供应协议锁定至本十年末。这不是一笔财务投资,而是NVDA主动锁定自身生产链条的战略行为——它告诉你光互联是Blackwell及其后续架构不可缺少的组件。

技术路线正在从400G向800G和1.6T快速演进,3.2T已在2026年展示原型。AI模型已经大到无法放在单个数据中心里,超级大厂正在建设跨越多个数据中心、作为一个虚拟超级计算机运行的集群,而连接这些集群的只能是光纤。

这个市场从2025年的$3.75亿预计到2033年扩张至$18.36亿,CAGR约22%。更重要的是,技术代际升级的节奏(每18-24个月一次)确保了持续的需求更新。

NVDA光互联战略投资
$40亿
COHR $20亿 + LITE $20亿,协议至2030年
AAOI 一年涨幅
15×
从$10涨至~$153,1.6T订单驱动
标的特点确信度
COHR
Coherent,光通信全栈,材料到系统
NVDA战略合作伙伴,1.6T量产
LITE
Lumentum,激光器+光子集成
NVDA另一个战略伙伴,系统溢价
AAOI
Applied Optoelectronics,LPO黑马
深度绑定MSFT,$2亿+1.6T订单
FN
Fabrinet,光模块代工第一名
无厂模式,所有人都要找它生产
03
第三层 · 热管理
液冷:物理定律强制要求的基础设施
不是选项,是必须

NVDA的Blackwell GPU功耗超过1000W,下一代Rubin预计更高。传统风冷系统的物理极限大约在300-400W/芯片,超过这个阈值后风冷无法有效散热。液冷不是一个更好的选项,而是高密度AI计算的唯一可行方案。

2025年2月,微软宣布将液冷定为所有新Azure AI服务器部署的标准。这个决定从单一客户的技术选择,变成了整个行业的部署规范。类似的强制性采用正在发生在所有超级大厂。

市场数据显示,液冷市场将从2025年的$4.68亿扩展至2035年的$25.80亿,CAGR约18.6%。Vertiv以11.3%的市场份额领先,订单积压达到$150亿,2025年账面订单同比增长81%,Q4 book-to-bill比率达到2.9——意味着每收入1美元,新增订单2.9美元。

与其他AI基础设施领域不同,液冷的壁垒不只是技术,更是工程集成和客户关系。Vertiv与NVDA、Intel共同为其最新芯片系统设计液冷解决方案,这种深度嵌入使其在单一客户中形成了多年的锁定。

Vertiv 订单积压
$150亿
Book-to-bill 2.9,预期调整后利润增长42-45%
液冷市场规模2035
$258亿
CAGR 18.6%,从2025年$4.68亿起步
标的特点确信度
VRT
Vertiv,液冷+电源管理一体化
市场领导者,NVDA战略伙伴,端到端方案
SMCI
Super Micro,AI服务器+液冷集成
直接面对AI服务器买家,交付速度快
04
第四层 · 能源与电网
电力:AI的终极物理瓶颈
2030年前需要$1.4万亿电气化投资

2026年4月,Bloomberg报道美国计划今年投建的数据中心中,超过一半面临延期或取消——不是因为缺钱,也不是缺地,而是缺变压器和配电设备。这一个细节,将电力基础设施从投资者的「背景噪声」推到了舞台中央。

AI数据中心需要的是7×24小时不间断的基载电力,风能和太阳能的间歇性无法满足这个要求。这就是为什么微软签了20年的核电协议重启三哩岛,Meta签了1.1GW的核电协议,超级大厂们开始直接绕过电网与发电厂谈合同。

电力这条主线由两个子市场构成:发电侧(核电运营商CEG、VST)和输配电设备侧(GEV、ETN)。两者的逻辑不同但都成立。

发电侧的故事是核电资产重新定价。核电厂此前被市场按照商品化电力定价,但它提供的24/7零碳基载电力在AI时代有了溢价逻辑,超级大厂愿意签长期协议锁定供应。Constellation的三哩岛重启协议、Vistra的核电扩张,都是这个逻辑的具体执行。

输配电设备的故事更直接。GE Vernova上周四(4月22日)上调全年业绩指引,原因是单季数据中心电气化订单就超过了去年全年总和。Eaton的数据中心订单积压等于2025年全年建设量的11倍。这不是预期,这是已经签约的订单。

GEV 电气化订单积压
$420亿
从2022年底$90亿扩张至今,Q1单季订单超去年全年
ETN 数据中心积压
11年
等于2025年全年建设量的11倍,Q4订单增长200%
AI数据中心电气化需求
$1.4万亿
2030年前所需总投资,数据来源:CIO报告
标的特点确信度
GEV
GE Vernova,燃气轮机+电网设备
YTD +70%,$1630亿积压,CEO称"市场10%都没到"
ETN
Eaton,配电设备+数据中心电源管理
11年积压,数据中心专用解决方案领导者
CEG
Constellation Energy,美国最大核电运营商
MSFT/Meta 20年核电协议,19400MW核电容量
VST
Vistra,核电+天然气复合型
估值低于CEG,ERCOT市场监管相对宽松
05
第五层 · 制造基础
先进制造:百家争鸣时代的最终公分母
无论谁设计芯片,最终都在这里制造

这是整张地图里逻辑最简单、确定性最高的一层。

NVDA的GPU在台积电制造。Google的TPU在台积电制造。AMD的MI系列在台积电制造。Broadcom和Marvell设计的ASIC在台积电制造。Apple的M系列芯片在台积电制造。全球92%的先进AI芯片,都在台积电制造。

AI芯片竞争越激烈,台积电的订单总量越大。没有任何一种竞争结果会对台积电不利——除非某个主要客户整体萎缩,而这在AI Capex持续扩张的背景下几乎不可能发生。

台积电Q1 2026利润同比增长58%,HPC(高性能计算,主要是AI芯片)已占营收61%,全年指引30%增速。管理层明确表示「需求远超供给,sold-out状态贯穿2026全年」。

这个生意的护城河不是技术一代的领先,而是数十年工艺积累、数万名工程师的经验、以及整个客户生态的深度嵌入。英特尔试图追赶,三星试图追赶,三星和英特尔都还没有追上。这是目前所有已知竞争中,防御最稳固的商业模式。

唯一需要管理的风险是地缘政治,而不是商业竞争。这个风险无法通过分析消除,只能通过仓位控制来管理。

台积电Q1 2026净利润增速
+58%
HPC占营收61%,全年指引+30%
全球先进AI芯片市场份额
92%
TSMC独占,无论谁赢得芯片战争
标的特点确信度
TSM
台积电,全球先进芯片唯一制造者
竞争中立,百家争鸣最终受益者,护城河最深
AMAT
Applied Materials,半导体设备第一
台积电扩产必须购买AMAT设备
ASML
ASML,EUV光刻机垄断者
任何先进制程扩产的必要条件,全球唯一供应商
06
第六层 · 存储与内存
HBM与高速存储:模型越大,内存越贵
AI推理时代最直接的瓶颈之一

训练一个大模型需要大量算力,但推理(inference)——也就是让模型实时回答问题——对内存带宽的要求同样极为苛刻。模型越大,推理时需要的内存越多,读写速度越关键。

HBM(高带宽内存)是目前AI GPU和TPU的标准内存方案。NVDA的H100、A100,以及AMD的MI300X,都大量使用HBM。全球HBM市场由SK Hynix、Samsung、Micron三家主导,其中SK Hynix供应了全球约62%的HBM。

MU(Micron)是这条主线里对美国投资者最直接可投的标的,也是你此前深度研究过的公司。Micron的HBM3E已被NVDA纳入供应链,其企业级SSD业务也随AI数据中心扩张同步受益。

这条主线目前面临的挑战是:存储行业的周期性相对较强,价格波动会影响利润。但AI对HBM的需求相对刚性——GPU性能提升,对应的HBM需求成比例增长——使得这一代存储周期的韧性明显强于前几轮。

全球HBM市场份额
62%
SK Hynix独占,Samsung和Micron追赶中
核心逻辑
模型越大
推理所需内存越多,HBM需求与GPU需求正相关
标的特点确信度
MU
Micron,HBM3E量产+企业SSD
美股可直接投资,NVDA供应链成员
000660.KS
SK Hynix,HBM全球第一
62%市占率,但需通过ADR或韩国市场投资
早期
完整机会地图 · 汇总

六层价值链,一张完整的地图

按照「离NVDA的距离」和「当前确信度」排列,越靠前的层次,逻辑越已被市场验证。

层次 核心标的 投资逻辑一句话 当前状态 主要风险
ASIC设计使能 AVGO · MRVL · ARM 帮所有人造芯片,竞争加剧反而受益更多 已验证 客户自建能力提升
光互联 COHR · LITE · AAOI · FN 算力集群扩大的物理必需品,NVDA已战略押注 已验证 技术路线变化,竞争加剧
液冷热管理 VRT · SMCI 高功耗芯片的物理定律强制要求,非可选项 已验证 竞争者进入,定价压力
电力与电网 GEV · ETN · CEG · VST 数据中心建设的真正瓶颈,$1.4万亿需求在途 已验证 监管审批,执行风险
先进制造 TSM · ASML · AMAT 所有芯片的最终制造者,竞争中立,护城河最深 已验证 台海地缘政治风险
高速内存 MU · SK Hynix 推理时代的内存需求与模型规模正相关 验证中 存储周期性,价格波动
结语

一个框架,而不是一个清单

这张地图的价值不在于提供一个可以直接照搬的股票清单,而在于提供一个寻找下一个Alpha的思维框架:在每一次大规模技术建设浪潮中,沿着价值链找到那些「无论谁赢最终都会找我」的公司。

NVDA是这张地图的原点,但它不是终点。随着AI从训练时代进入推理时代、从单数据中心进入分布式集群、从高端GPU垄断进入ASIC竞争,价值链上的利润分配正在持续重构。

识别下一个「卖铲子的人」,需要的不是预测谁会赢,而是找到那个无论谁赢都必须经过的节点。变压器短缺让GEV受益;ASIC竞争让AVGO受益;模型集群化让光互联受益;功耗增加让液冷受益。

瓶颈在哪里,机会就在哪里。这个原则,在过去十年适用于NVDA,在未来十年同样适用于价值链的每一个新瓶颈。

数据来源与免责声明
主要数据来源
各公司季度财报及投资者日演示,Bloomberg行业报告,MarketsandMarkets/GMInsights市场研究,Portfolio Visualizer回测平台,公司SEC文件。
免责声明
本报告仅供研究参考,不构成任何投资建议或邀约。所有标的均涉及投资风险,过往表现不代表未来收益,投资者应基于自身风险承受能力做出独立判断。
数据截止时间
本报告数据截至2026年4月25日,部分实时数据以当日市场收盘价为准,行业预测数据来自第三方研究机构,存在一定不确定性。
研究性质说明
本报告为个人投资研究目的整理,非专业机构出具的投资分析报告。确信度评级(高/中/早期)为主观判断,不代表对投资回报的任何保证。