汪翔

注册日期:2009-10-24
访问总量:5511484次

menu网络日志正文menu

预测对错:MSFT vs META vs GOOG


发表时间:+-

刚刚出了两家的财报,一家欢乐一家愁。现在,我让谷歌的AI来读读我早上发的分析和预测,看看对在哪里,错在哪里?基于AI的回答和我个人的感觉, 确实是,微软的投资者得有耐心。这种“暴跌”倒是给耐心的投资者建仓的机会。在未来几个月,微软的股价表现很可能乏善可陈。但是,长期看,哪怕是一年周期看,应该也是不错的投资对象。

下面是Gemini的回答:

结合 2026 年 1 月 28 日刚刚发布的财报和市场表现,我对你的分析进行如下复盘:

1. 微软 (MSFT):你的预测“错”在了市场耐心

你对微软的逻辑在技术路径上是正确的,但在时间预期资本市场情绪上出现了偏差。

  • 对在哪里:Maia 200 的战略卡位。

    你准确捕捉到了 1 月 26 日发布的 Maia 200。这款芯片性能提升 30%,确实是微软“去英伟达化”和降低推理成本的核武器。它解决了“有订单、没算力”的产能瓶颈,长期看必然会提升 Azure 的毛利。

  • 错在哪里:毛利提升的“时差”与巨大的 Capex 冲击。

    • 时差问题: 财报显示,Maia 200 目前仅在少数数据中心(如爱荷华州)部署,真正的财务红利要到 2026 年下半年才能体现在利润表上。市场现在关注的是“当下”的支出。

    • 资本开支(Capex)失控: 微软本季度的 Capex 飙升至 349 亿美元(同比增长 74%),刷新了历史纪录。即便 Azure 增速维持在 30%-40%,如此巨额的投入让投资者担心 AI 收益能否覆盖高昂的折旧。

    • 产能限制的负面解读: 微软在电话会议中提到“需求依然高于可用容量”。这原本是好事,但在估值高位时,市场将其解读为:微软必须继续烧钱盖机房,且短期内即便有订单也无法转化为收入。

结论: 微软股价下跌并非因为分析逻辑不对,而是因为“故事太好,但支票太贵”。市场目前进入了对微软“重资产模式”的审美疲劳期。


2. Meta (META):你的预测几乎是“满分”

你对 Meta 的逻辑与目前的市场反馈高度吻合,这也是为什么 Meta 盘后暴涨 10% 以上。

  • 核心逻辑的胜利:闭环生态与即时变现。

    • 推理降本逻辑: 你提到的 MTIA 芯片确实已经成熟并大规模部署。Meta 与微软最大的不同在于:Meta 的 AI 是给自家用的。 微软需要说服客户买 Azure AI,而 Meta 只需要优化算法,让几十亿用户多点一次广告。

    • 广告系统的“暴力”增长: 财报证实了你的观点,广告展示量增加 18%,单价也在提升。这意味着 Meta 的“Llama + 推荐算法”模型已经形成了正向循环:投入 AI,带来停留时间增加,带来广告更精准,结果是现金流(FCF)爆表。

  • 资本开支的容忍度: 尽管 Meta 将 2026 年 Capex 上调至 1150 亿-1350 亿美元,远超你提到的 700 亿,但由于其 Q4 营收接近 600 亿且利润远超预期,市场认为 Meta 的投入是“有赚头的投入”。

结论: Meta 证明了自己是目前唯一一个能把 AI 投入瞬间转化成利润的巨头微软: 正处于“黎明前的黑暗”。Maia 200 是好棋,但它需要 2-3 个季度来证明它能显著降低 Azure 的运营成本。Meta: 已经进入了“AI 收割期”。它的变现路径最短、最直接,且自研芯片的部署已经开始为利润腾挪空间。

在 2026 年初这个时间点,对比谷歌(Alphabet)的 TPU (Tensor Processing Unit) 路径与微软的 Maia 200,就像是在看一场“长跑老将”与“爆发力新秀”的对决。

虽然微软刚刚凭借 Maia 200 在参数指标上完成了一次“纸面反超”,但谷歌在先发优势、生态深度和成本效率上,依然握有几张微软短期内难以拿走的底牌。


1. 性能博弈:Maia 200 的“爆发力” vs TPU v7 的“老练”

微软在 1 月 26 日发布 Maia 200 时,直接把矛头对准了谷歌最新的 TPU v7 (Ironwood)

  • 微软 Maia 200: 采用台积电 3nm 工艺。最大的亮点是 FP4 精度下的算力达到了 10 PFLOPS(千万亿次浮点运算),并且配备了惊人的 272MB SRAM。这意味着它在处理超大规模模型(如 GPT-5.2)的推理时,响应速度极快。

  • 谷歌 TPU v7: 虽然在 FP8 性能上稍逊于 Maia(Maia 5.07 vs TPU 4.61 PFLOPS),但谷歌的优势在于互连架构。谷歌的计算集群可以通过自己的光开关(OCS)实现数万个 TPU 的超低延迟互连,这种“集群即计算机”的能力,微软目前的 Maia 集群仍在追赶中。

2. 生态与先发优势:谷歌的“十年长跑”

谷歌的先发优势不仅仅是芯片,更是软件栈(Software Stack)

  • 软件锁定的广度: 谷歌自 2015 年就开始用 TPU,所有的内部产品(搜索、YouTube、Gemini)和外部开发者工具(TensorFlow, JAX)都围绕 TPU 优化了整整十年。

  • 成本曲线的厚度: 谷歌的 TPU 已经摊销了大量的研发成本。在 2026 年初的财报中,谷歌 Cloud 的利润率提升(从 2025 年底的 34% 持续优化)很大程度上归功于其自研芯片的极低边际成本

  • 微软的挑战: 微软正在推行 Triton(一个开源的编程语言和编译器),试图打破英伟达 CUDA 或谷歌专属生态的垄断。虽然 Maia 200 性能强悍,但要说服开发者从熟悉的 CUDA 或 TPU 环境迁移过来,微软需要支付巨大的“迁移补贴”。

3. 应用场景:微软求“广”,谷歌求“深”

这两者的竞争侧重点已经发生了分化:

  • 微软:为了“去英伟达化”的生存战。

    微软的 Maia 200 核心使命是降本。微软作为全球最大的算力买家,如果不通过自研芯片压低 Azure AI 的推理成本,它的毛利会被昂贵的英伟达显卡和 OpenAI 庞大的调用量吞噬。

  • 谷歌:为了“全栈垂直整合”的统治力。

    谷歌的 TPU 路径是为了极致的算法匹配。从模型底层架构(如 Gemini 的多模态设计)到芯片底层指令集,谷歌是一体化设计的。这意味着在处理同样的生成式视频或多模态任务时,谷歌可能用更少的功耗(TDP)跑出更好的效果。


综合对比总结

维度谷歌 TPU (v7 世代)微软 Maia 200
制程工艺4nm/3nm 混合3nm (台积电)
核心优势互连技术、JAX/XLA 生态成熟度极致的推理速度 (FP4)、巨量 SRAM
变现路径内部核心业务 (Search/YT) + 外部 Cloud主要是 Azure AI 推理服务 + Copilot
先发红利极高 (十年积累,已进入财务收割期)中等 (刚进入大规模部署元年)

最后的判断

谷歌的先发优势目前依然稳固,主要体现在“单位算力的财务价值”更高。 谷歌不需要像微软那样为了证明自研芯片有用而到处“打广告”,TPU 已经像自来水一样支撑着谷歌万亿级的广告业务。

微软 Maia 200 的胜算在于: 如果 2026 年的主战场进入了“全民 AI 代理(Agentic AI)”时代,Maia 200 针对推理优化的设计可能会让 Azure 成为性价比最高的推理平台。


浏览(133)
thumb_up(0)
评论(0)
  • 当前共有0条评论