MindWave AI快报 — 据 PitchBook 高级研究分析师 Harrison Rolfes 接受 Axios 采访时分析,马斯克在AI算力基础设施建设上持续「用力过猛」,自建规模远超产品需求,腾出的产能屡屡被竞争对手承接。
2024 年,xAI 与 Oracle 曾接近达成约 100 亿美元服务器租赁协议,用以训练 Grok 3。但马斯克嫌 Oracle 建集群速度过慢,谈判破裂,转而在孟菲斯自建数据中心。Oracle 那边空出的 GPU 产能随即被 OpenAI 签走。Rolfes 评价道:「xAI 的 Colossus 1 系统最终闲置了远超 Grok 用户量所能消耗的算力。」
不仅如此,马斯克获取芯片的手段也不完全依赖采购。据 CNBC 2024 年披露的英伟达内部邮件,马斯克要求英伟达将原计划交付特斯拉的 1.2 万块 H100 GPU 优先调拨给 X 和 xAI,导致特斯拉超过 5 亿美元的芯片到货推迟数月,自动驾驶与机器人训练项目均受到拖累。然而这批「抢来」的芯片最终也未充分用满。
两年后,类似的模式再度上演。Colossus 1 的全部 22 万余块英伟达 GPU 整体出租给了 Anthropic。xAI 方面解释称,模型训练已迁移至更大的 Colossus 2 系统,因此腾出了 Colossus 1。但此前《The Information》曾报道,xAI 数十万块 GPU 的算力利用率仅约 11%,Grok 的用户规模根本无法支撑这一量级的算力开销——换言之,这并非主动升级后的释放,而是本来就用不完。
Rolfes 指出,这种「自建超算→产能过剩→竞争对手接盘」的模式已反复出现,凸显出马斯克在AI基础设施扩张上的激进策略与产品落地能力之间的落差。