汪翔

注册日期:2009-10-24
访问总量:5403440次

menu网络日志正文menu

AMD 的投资价值


发表时间:+-

进入 2026 年,AI 产业的叙事已从 2025 年的“算力军备竞赛”转向“工程化效率优化”。随着大模型同质化(同质化率预计达 70%),市场的核心痛点从“训练霸权”变成了“极致推理”。

 AMD 正是在这一节点完成了身份的转身。凭借 2026 年下半年即将规模化上线的 2nm 工艺芯片(MI450 系列)和 ROCm 7.x 开放生态,AMD 正在利用“非对称优势”包抄英伟达的侧翼。

预计 2026 年 AMD 数据中心营收将向 200-250 亿美元跨越,整体营收增长 35%+,成为全球唯一的“全栈 AI 平衡者”。

2026 年,AMD 最大的前瞻性优势在于其率先在 AI 加速器和 CPU 上双线切入 TSMC 2nm (N2) 制程。

MI450 系列与 HBM4 的“暴力集成”: AMD 在 2026 年推出的 Instinct MI450 系列(代号 Atair+)搭载了高达 432GB 的 HBM4 内存,带宽达到 19.6TB/s。在同质化时代,推理瓶颈 60% 取决于内存访问。MI450 的大显存设计,使其在处理 100k+ 超长文本推理时,单卡效率预计比英伟达的高端产品高出 1.5 倍。这在端侧和云端推理场景中,是降低 Cost per Token 的核武器。

Venice (Zen 6) CPU 的“调度中心化”: 采用 2nm 工艺的 EPYC "Venice" 处理器,核心数最高可达 256 核。AMD 通过 Helios 机架方案实现了 CPU 与 GPU 的 1:1 深度互联,有效缓解了 I/O 瓶颈。这是单一卖 GPU 的厂商难以触达的系统级优势。

核心优势:成本控制与“生态去中心化”。

ROCm 7.x 的“奇点”: 2026 年,AMD 软件栈已不再是“CUDA 的备选”。通过与 OpenAI(双方已签署 6GW 规模的长期计算协议) 的深度战略合作,AMD 实现了对 Triton 和 PyTorch 的原生无损支持,迁移成功率达 95%。这种“软件去中心化”直接瓦解了英伟达最硬的护城河,将企业切换成本降低了 50% 以上。

“备胎”转正的溢价: Meta、微软等巨头在 2026 年将 AMD 订单占比提升至 15%-20%。这不仅是为了压价,更是因为 AMD 的 Chiplet 成本模型在大规模推理场景下,比英伟达的单体大芯片能省下约 30% 的资本开支 (CapEx)。

潜力空间:端侧 AI 与边缘市场的“降维打击”。AI PC 的“主权时代”: 2026 年是端侧智能体(Agent)的元年。AMD 的 Ryzen AI (Medusa) 处理器凭借 50+ TOPS 的 NPU 算力,让用户可以在本地运行 10B 规模的模型。当模型同质化后,隐私将成为唯一的收费点。AMD 凭借在 Windows 生态的根基,通过“本地 AI 自由”直接抢夺了原本属于云端的算力流量。

工业边缘与自动驾驶: 通过赛灵思(Xilinx)的集成,AMD 的 Versal AI Edge 提供确定性的低延迟,这在 L4/L5 自动驾驶和工业机器人领域是刚需,预计 2026 年该业务增长将达 50%。

风险评估:腹背受敌的“二号位”阵痛。

云大厂自研芯片(ASIC)的挤压: 亚马逊 Trainium 4 和谷歌 TPU v7 正在抢占推理市场份额。

英伟达的“降价防御战”: 英伟达可能通过 Blackwell 旧款降价 20% 来封杀 AMD,这对 AMD 约 50% 的毛利率是巨大挑战。

Intel 的“18A”变数: 如果 Intel 的 18A 工艺良率达标,AMD 在服务器市场的“性价比”优势将面临左右夹击。

AMD 是 AI 普及化时代最强的“效率工具”和“反垄断杠杆”。其基本盘是极其稳固的异构计算技术和巨头们“必须有第二选择”的政治正确。 

投资建议: 关注 2026 年 Q1 的数据中心毛利率变化(目标守住 50%)。如果 AMD 能守住毛利同时市占率升至 15%,它将从“周期股”彻底蜕变为“AI 蓝筹股”。

AMD 适合作为捕捉 AI “下沉红利”的核心配置。


无论如何,MU肯定会得益。如果说 NVIDIA 和 AMD 是在前面冲锋陷阵的将军,那么 MU 就是那个控制着所有人“内存生命线”的顶级后勤商。就在这几天(2025 年 12 月底),美光的财报和市场表现已经把“得益”两个字写成了“神话”。

MU 的最新官方口径是:2026 全年的 HBM(高带宽内存)产能已经全部售罄。

这意味着,无论 2026 年是大模型同质化也好,还是 Agentic AI 爆发也好,只要 NVIDIA 和 AMD 还在出货,每一颗芯片旁边都必须贴上几颗美光的内存。 这种“提前一年售罄”的可见度,在半导体历史上极为罕见。美光已经锁定了 2026 年的营收底线。

我个人觉得,2026 年模型变聪明很难,但变“大”很容易。

内存墙(Memory Wall): AI 的瓶颈正在从算力转移到存储。即便模型逻辑同质化了,但为了处理更长的上下文、更复杂的 Agent 任务,内存容量的需求是指数级增长的。

HBM4 的暴利期: 2026 年 Q2,美光的 HBM4 将正式量产。这种芯片的引脚速度超过 11 Gbps,带宽超过 2.8 TB/s。因为它生产难度极高,美光拥有恐怖的议价权。

“小容量”端侧 AI 的隐形推手。在手机和 PC 上的端侧 AI,更是 MU 的增量市场:

2026 年,为了在本地跑 10B 的模型,手机内存可能要从 8GB 标配跳升到 16GB 甚至 24GB。

芯片可能同质化,但为了流畅运行 AI,用户必须购买内存更大的机器。美光的 LPDDR5X 这种端侧低功耗内存,将迎来一次巨大的量价齐升。

根据 2025 年 12 月最新的投行分析(如 Morgan Stanley 和 BofA):2026 年的每股收益(EPS)预计将比 2025 年暴增 230%。华尔街已经有人给出了 $325 - $500 的疯狂目标价(目前在历史高位波动)。

投资逻辑:NVIDIA的风险在于“对手什么时候追上来”。AMD的风险在于“能不能抢到份额”。MU的风险则在于“工厂能不能造得够快”。它唯一的风险是竞争: 三星(Samsung)在 2026 年如果解决掉良率问题大规模入场,可能会冲击毛利。但就目前来看,美光在 HBM3e 和 HBM4 上的技术领先,让它在 2026 年拥有极高的“护城河”。


浏览(109)
thumb_up(0)
评论(0)
  • 当前共有0条评论