马斯克豪言 5 年内最便宜的 AI 算力将来自太空,黄仁勋称这是梦想

2025-11-21 发布 · 浏览6次 · 点赞0次 · 收藏0次

11 月 21 日消息,科技媒体 Tom's Hardware 今天(11 月 20 日)发布博文,报道称特斯拉首席执行官埃隆・马斯克(Elon Musk)近日预测,得益于“免费”的太阳能和便捷的辐射冷却,未来 4~5 年内,在太空部署和运行大规模 AI 系统的成本可能比在地球上运行同类系统更具成本效益。

马斯克详细阐述了地球的局限性。他强调,随着 AI 计算集群规模的急剧扩张,电力与散热的综合需求将达到现有地面基础设施无法承受的水平。

他估计,AI 算力未来可能需要 200 至 300 吉瓦甚至接近 1 太瓦的持续功率输出。作为对比,一座典型的核电站仅能提供约 1 吉瓦的持续电力,而整个美国的持续总发电量也仅为 490 吉瓦左右。

因此,马斯克断言,在地球上建设如此规模的电厂来支持 AI 是“不可能的”,唯一的出路在于太空。附上视频如下:

然而,英伟达 CEO 黄仁勋虽然认同地球 AI 数据中心面临的挑战,却认为马斯克的太空方案目前仅是“梦想”。他指出,即便在看似理想的地球静止轨道(GEO),构建大型 AI 数据中心也障碍重重。

例如,一个兆瓦级的 GPU 集群就需要面积高达数万平方米的巨型散热翼来进行辐射散热,这远超当前任何航天器的部署能力。要将如此庞大的设备送入轨道,需要数千次“星舰”级别的发射,这不仅成本极高,在马斯克提出的时间窗口内也难以实现。

除了发射与散热,太空的严苛环境是另一大技术难关。类似英伟达 Blackwell 或 Rubin 这样的高性能 AI 芯片,无法在未经改造的情况下承受地球静止轨道的强辐射。

要让其正常工作,必须进行重度的物理屏蔽或采用全新的抗辐射加固设计,但这通常会以大幅牺牲芯片性能为代价。此外,与地球的高带宽连接、自主服务、碎片规避以及机器人维护等关键技术,相对于如此宏大的项目规模而言,目前都还处于起步阶段。这些现实的技术鸿沟,正是黄仁勋将太空 AI 数据中心视为“梦想”的根本原因。

马斯克豪言 5 年内最便宜的 AI 算力将来自太空,黄仁勋称这是梦想 - AI 资讯 - 资讯 - AI 中文社区

声明:本文转载自IT 之家,转载目的在于传递更多信息,并不代表本社区赞同其观点和对其真实性负责,本文只提供参考并不构成任何建议,若有版权等问题,点击这里。本站拥有对此声明的最终解释权。如涉及作品内容、版权和其它问题,请联系我们删除,我方收到通知后第一时间删除内容。

点赞(0) 收藏(0)
0条评论
珍惜第一个评论,它能得到比较好的回应。
评论

游客
登录后再评论
  • 鸟过留鸣,人过留评。
  • 和谐社区,和谐点评。