2026太空算力发展研究报告.docx
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 2026 太空 发展 研究 报告
- 资源描述:
-
行业研究系列 商业航天时代来临,开启下一代计 算范式的苍穹革命 2026 年 1 月 ·深企投产业研究 2025 年行业研究报告 · 目 录 第一篇 太空算力概述 一、太空算力概念 2 二、太空算力的技术内涵与架构 5 (一)核心范式改变:从天感地算到天数天算、天地一体协同计 算 5 (二)技术功能层级:从边缘到云网 7 (三)系统核心构成:应对极端环境的四大支柱 8 三、太空算力的发展背景 9 (一)全球算力需求及投资超预期上涨 9 (二)传统地面数据中心扩张难以匹配 AI 时代的算力需求 9 1、地面数据中心耗电规模持续扩大,地面电网容量供给失 衡 10 2、散热能耗、水资源消耗与土地规模需求庞大 12 (三)太空算力具备长期运营成本优势 14 优势一:取之不尽、边际成本趋零的能源优势 14 优势二:利用宇宙深冷的零水耗散热优势 14 (四)商业航天技术进步,发射成本将进入可负担区间 16 1、SpaceX 引领全球商业航天发展,发射成本快速下降 16 2、我国商业航天企业加快追赶,可重复使用火箭实验密集 发射 19 I ·深企投产业研究 2025 年行业研究报告 · 第二篇 中美太空算力布局进展 一、美国太空算力研发布局进展 23 (一)SpaceX 23 (二)亚马逊 24 (三)StarCloud 24 (四)英伟达 25 (五)谷歌 25 二、中国太空算力研发布局进展 26 (一)中国科学院计算技术研究所 27 (二)武汉大学 27 (三)之江实验室 28 (四)国星宇航 28 (六)北京邮电大学 29 (七)北京星辰未来空间技术研究院 29 第三篇 发展瓶颈与突破路径 一、太空发电与高效能源系统挑战 32 二、高可靠材料与元器件挑战 33 三、储能技术挑战 34 四、热管理技术挑战 35 五、高速通信挑战 36 六、在轨运维挑战 37 II ·深企投产业研究 2025 年行业研究报告 · 七、空间安全防护挑战 39 八、轨道资源与国际协调挑战 40 III 太空算力概述 ·深企投产业研究 2025 年行业研究报告 · 传统低轨卫星正经历从“天感地算 ”向“天数天算 ”的范式跃迁, 不再仅作为数据采集与转发终端,而是演进为具备在轨智能决策能力 的自主智能体。这一转变将显著提升对遥感观测、环境监测、灾害预 警、交通调度、军事侦察及战场指挥等高实时性任务的响应速度与处 理效率。 与此同时,AI技术的爆发式发展正推动全球算力需求与投资规 模急速攀升。然而,传统地面数据中心的扩张已难以跟上AI 时代的 算力增速,并对全球电力系统带来前所未有的压力。在美国,数据中 心激增的电力与水资源消耗已引发局部电网紧张和公众舆论反弹,凸 显其可持续发展的瓶颈。 相比之下,太空算力(或太空数据中心)天然具备近乎无限的太 阳能资源,能源边际成本趋近于零,且无需冷却水、无散热能耗,在 绿色低碳方面具有结构性优势。一旦突破商业航天的运力与成本瓶颈, 特别是将发射成本降至约200 美元/公斤的关键阈值,太空算力的大 规模商业化将真正成为可能。依托以 SpaceX 为代表的商业航天企业 持续推进的可重复使用火箭技术,以及新一代重型运载火箭(如星舰) 的逐步成熟,业界普遍预测,这一临界点有望在 2030 至 2035 年间实 现,开启“天地一体、协同计算 ”的人类算力新纪元。 一、太空算力概念 太空算力(Space-based Computing)是一种将高性能计算、人 工智能与边缘计算能力集成于太空环境中,依托太空空间平台构建分 布式计算网络或太空数据中心的全新计算范式。天空算力的直接目标 是实现数据在采集源头(太空)的实时处理、智能分析与自主决策, 推动卫星、空间站等太空平台从传统的“数据采集与转发终端 ”升级 为具备自主决策能力的“在轨智能体 ”。目前,“太空算力 ”、“太 2 ·深企投产业研究 2025 年行业研究报告 · 空计算 ”、“天基计算 ”、“太空数据中心 ”、“轨道数据中心 ”等 术语并存,含义高度重叠但尚未统一,行业标准化进程仍处于早期阶 段。 太空算力是一个被产业广泛接受并积极推动的技术愿景和产业 方向。太空算力代表着计算基础设施向太空的延伸,其核心是通过体 系化的技术架构,利用太空的独特环境优势,实现计算范式的根本性 变革,从而构建一个高能效、低延迟、全球覆盖的智能计算新边疆。 尽管具体的标准有待确立,但对其颠覆性潜力的认知已成为全球科技 与航天领域的共识。 太空算力按照距离地球的远近,可分为临近空间算力、同步轨道 算力,以及未来人类进入大宇航时代的月球算力、火星算力等深空算 力类型。目前正在推进的太空算力,是依托近地轨道卫星承载服务器、 AI 芯片、存储设备等计算资源,再由多颗计算卫星组网形成太空计 算星座,从而构建分布式的轨道数据中心,以提供强大的太空算力。 图 1 太空算力分类(按距离地球远近) 资料来源:龚春叶《太空超算:概念、挑战及应用》,深企投产业研究院整 理。 太空算力并非一个凭空诞生的概念,而是人工智能浪潮与商业航 3 天技术成熟交汇下的必然产物,代表了一种全新的计算范式与基础设 施形态。太空算力的雏形可追溯至 20 世纪末的航天测控与卫星数据 处理,早期主要用于航天任务的轨道计算、遥感数据传输等场景。随 着以 SpaceX 星链为代表的商业航天和人工智能的发展,传统卫星“单 一功能、地面依赖 ”的模式被打破,逐步向天基平台算力部署、星上 数据处理、天地协同计算升级,最终形成“太空算力 ”的明确概念。 图 2 三体计算星座示意图 资料来源:《半月谈》2025 年第 11 期。 4 ·深企投产业研究 2025 年行业研究报告 · 二、太空算力的技术内涵与架构 太空算力远非地面服务器等算力基础设施“搬家 ”上天,而是一 个完整的体系化架构,其技术内涵体现在以下几个层面: (一)核心范式改变:从天感地算到天数天算、天地一 体协同计算 传统低轨卫星的工作模式通常被称为“天感地算 ”,即在太空中 感知、在地面上计算。在此模式下,低轨卫星主要作为数据采集与转 发终端,其核心功能是获取遥感或其他观测数据,并将其原始形式完 整传回地面站,再由地面数据中心完成后续的处理、分析与存储。 “天感地算 ”传输延迟大、处理周期长。随着观测精度提升,卫 星数据量激增。例如,一颗太阳监测卫星每天可产生约 500GB 的观测 数据,而地球观测等卫星产生的数据量已达 PB 级。然而,现有先采 后传、地面集中处理的架构存在明显瓶颈,受限于有限的地面站覆盖 和星地通信带宽,卫星每天产生的海量原始数据难以全部下传。据估 算,高达 90%的潜在有效数据因传输能力不足而被迫丢弃。同时,从 数据采集到最终可用结果的生成往往需要数小时、数天乃至数周,应 用的时效性与响应能力不足,制约了遥感、灾害监测、军事侦察等高 实时性任务的发展。 太空算力实现了“天数天算 ”。在轨卫星直接对原始数据进行处 理、筛选和智能分析,仅将高价值的分析结果或关键信息(KB/MB 级) 下传。这从根本上破解了数据传输瓶颈,将响应时间从“小时级 ”压 缩至“分钟甚至秒级 ”。比如,在森林火灾监测中,通过在轨运行火 点识别AI模型,卫星可在数秒内完成火情初判并触发告警,实现感 知—分析—响应一体化,大幅提升应急响应能力与资源调度效率。 5 ·深企投产业研究 2025 年行业研究报告 · 图 3 天基计算体系变化 资料来源:星测未来 StarDetect。 表 1 天感地算与天数天算对比 对比维度 天感地算 天数天算 数据处理位置 地面数据中心 在轨卫星/轨道数据 中心 下行数据量 海量原始数据(TB/GB 级) 高价值信息/处理结 果(KB/MB 级) 核心瓶颈 星地通信带宽 星上算力与智能算法 响应时效 小时/天/数周 分钟/秒级 数据利用率 低(大量数据废弃) 高(在轨筛选与提炼) 资料来源:深企投产业研究院整理。 天地一体协同计算被视为“天数天算 ”演进的终极形态。随着“星 链 ”“星算 ”等大规模低轨星座计划的加速部署,未来将构建由星间 高速通信(如激光链路)与高效星地互联共同支撑的天地协同网络, 形成覆盖全球、低时延、高吞吐的分布式在轨算力基础设施。在此架 6 ·深企投产业研究 2025 年行业研究报告 · 构下,地面数据中心与在轨计算节点将实现深度融合与动态协同,支 持多种灵活的算力调度范式: ——地数天算:将地面高并发或能效敏感的计算任务上载至太空 节点处理。 ——天数地用:利用在轨智能处理结果直接赋能地面实时应用, 如环境监测与灾害预警、交通调度、国防安全与战场指挥等。 通过构建天地互补、按需调度的算力生态,该体系将为全球范围 内的智能应用提供泛在、弹性且可持续的算力支撑,加速天基智能从 技术验证迈向规模化商业落地。 (二)技术功能层级:从边缘到云网 太空算力在功能上可划分为太空边缘计算、太空云计算、太空分 布式计算三个递进层次: ——太空边缘计算。在数据源头即单颗卫星上进行实时的数据处 理、分析与智能过滤,从而大幅减少需传回地面的冗余数据量,显著 提升系统响应速度、通信效率及卫星的自主决策能力。典型应用包括 对遥感图像进行在轨云检测、地物分类、目标初筛甚至异常事件识别, 为应急响应、环境监测和军事侦察等时效敏感任务提供关键支撑。 ——太空云计算。在太空边缘计算的基础上,依托星间高速激光 或射频通信链路与统一的分布式计算框架,在轨构建具备弹性伸缩、 高可用性和服务化能力的天基云计算基础设施。该体系可为遥感处理、 轨道计算、人工智能推理等任务提供按需分配、动态调度的计算资源 与平台服务,使用户如同使用地面主流云服务一般,无缝调用太空中 的算力资源。 ——太空分布式计算。通过整合卫星星座、空间站、深空探测器 等多类太空平台上的异构计算节点,构建一个广域互联、协同运作的 7 天基分布式计算网络。各节点不仅承担本地数据处理、存储与转发功 能,还能基于任务需求动态协作,实现跨轨道、跨平台的数据融合、 联合分析与负载均衡,从而为大规模空间科学实验、全球实时监测和 未来深空探索任务提供强有力的支撑。 (三)系统核心构成:应对极端环境的四大支柱 一个完整的太空算力系统是复杂的系统工程,其稳定运行依赖于 四大关键模块: ——算力模块。太空算力系统的核心,主要由星载服务器集群构 成,需集成抗辐射加固的高性能 CPU、GPU 及专用AI加速芯片。该模 块必须在卫星平台严苛的体积、重量与功耗约束下,实现高算力密度、 低能耗运行和长期可靠工作。典型部署形式包括多芯片集成架构或紧 凑型机柜设计,以支撑在轨任务对计算性能的持续需求,并确保在无 人运维条件下稳定运行 5 至 15 年。 ——能源系统。主要由太阳能电池阵、电源控制器和储能电池三 个部分组成。太阳能电池阵在晨昏轨道等特定轨道,可近乎实现 24 小时不间断日照,且无大气衰减,太阳能利用效率可达地面的 5 倍以 上,为系统提供持续、近乎无限的清洁能源。电源控制器负责调节、 分配和管理整个卫星平台的电力;储能电池则在卫星运行至地球阴影 区时,为关键负载提供不间断的电力保障。 ——散热系统。太空接近绝对零度(-270℃) 的真空环境是天然 的散热场。热量无法通过对流传导,主要依靠热辐射散发。通常采用 “热管/泵驱两相流体回路+大型辐射散热板 ”方案,将芯片废热以红 外辐射形式排向深空,彻底摆脱了对水冷系统的依赖。 ——通信链路。用于实现多星协同与天地互联,包括星间链路和 星地链路。其中,星间激光通信是实现多星协同、构建分布式“轨道 8 数据中心 ”网络的关键,具备高带宽、低延迟、强抗干扰和低截获概 率等优势,当前单链路传输速率已达到 100 -400Gbps,有望为未来 在轨协同计算提供高速骨干网支撑。同时,星地链路则通过微波或激 光手段,实现卫星与地面站之间的高效数据回传与指令交互,是连接 天基算力资源与地面用户的关键通道。 三、太空算力的发展背景 (一)全球算力需求及投资超预期上涨 AI 技术迭代加速,全球算力需求呈现持续上涨趋势。根据华为 《智能世界 2030》报告预测,2030 年,人类将迎来 YB 数据时代,对 比 2020 年,通用算力将增长 10 倍、人工智能算力增长 500 倍,算力 需求十年百倍的增长将成为常态。根据《中国综合算力指数报告 (2024)》预测,未来 10 年全球算力需求将达到 2024 年的 70 倍以 上。 算力投资规模正持续快速攀升,对全球电力系统构成前所未有的 压力。2024 年,美国微软、谷歌、Meta 和亚马逊四大科技巨头在AI 数据中心的建设和运营上合计投入已超过 2000 亿美元,预计 2025 年 将突破 3000 亿美元。麦肯锡进一步预测,到 2030 年,全球在数据中 心基础设施(不含 IT 硬件)上的资本支出将超过 1.7 万亿美元。在 此背景下,可负担得起、可靠且可持续的电力供应已不再仅是基础设 施问题,而是决定AI 能否持续发展与规模化落地的核心要素。美国 科技巨头发起的全球数据中心建设浪潮,已将“ 电力优先(Power First) ”确立为战略共识——稳定的电力保障被视为训练更强大模 型、满足推理需求、抢占市场份额并最终实现商业回报的战略底座。 (二)传统地面数据中心扩张难以匹配AI 时代的算力 9 需求 传统地面数据中心正面临能源、散热与水资源消耗等多重约束, 其扩张速度已难以匹配AI 时代指数级增长的算力需求,具体如下: 1、地面数据中心耗电规模持续扩大,地面电网容量供 给失衡 2030 年全球数据中心用电量最高可达当前 3 倍。根据国际能源 署(IEA)2025 年 4 月发布的报告显示,2024 年全球数据中心耗电已 达 415 太瓦时(TWh),占全球总用电量的 1.5%;在基准情景下,预 测到 2030 年,全球数据中心的用电量将达到约 945 TWh, 占 2030 年 全球总用电量的近 3%;在高增长情景(Lift-Off Case)下,2030 年 全球数据中心用电量将达到 1250TWh,2035 年则接近 1750TWh,占全 球总用电量的4.4%。根据麦肯锡预测,到 2030 年全球数据中心用电 量将达到 1400TWh,占全球总用电量的4%。兰德公司(Rand)的预测 更为激进,认为到2030 年,单个AI训练任务的电力需求可能高达8 吉瓦(GW),相当于 8 座大型核反应堆的功率。 预计 2030 年数据中心用电量占我国总用电量 5%左右。根据北京 理工大学能源与环境政策研究中心 2025 年 1 月发布的《数据中心综 合能耗及其灵活性预测报告》,2024-2030 年,全国数据中心用电量 年均增速将达约20%,远超全社会用电量增速;2025 年我国数据中心 电耗将占到全国电耗的2.4%,一些节点城市和区域占比超过20%;到 2030 年,我国数据中心用电负荷将达 1.05 亿千瓦,全国数据中心总 用电量约为 5257.6 亿千瓦时(525.76TWh),用电量将占到全社会总 用电量的 4.8%。 预计 2030 年数据中心用电量占美国总用电量 10%以上。根据美 10 国能源部(DOE)在 2024 年底发布劳伦斯伯克利国家实验室(LBNL) 撰写的报告,数据中心用电量从 2014 年的 58TWh 上升到 2023 年的 176TWh,占美国总用电量的 4.4%;预计到 2028 年,这一需求将呈指 数级增长,预测数值在 325TWh 到 580TWh 之间,可能占美国总用电量 的 6.7%到 12%。根据麦肯锡预测,美国数据中心用电量将从 2023 年 的 147TWh 增长至 2028 年的 450TWh, 占美国电力需求的比重从 3.7% 增长至 9.3%,2030 年数据中心用电量进一步提升至 606TWh,占电力 消费的 11.7%。根据国际能源署预测,到 2030 年美国数据中心用电 增量将占美国整体电力需求增量近一半,美国经济处理数据消耗的电 力将超过制造所有能源密集型商品的总和。 AI 驱动的电力需求激增与地面电网容量供给之间存在失衡。根 据国际能源署分析,电网容量限制可能致使全球约 20%计划于 2030 年前投建的数据中心容量遭遇延迟,进而导致部分 AIDC 无法按期投 入运营。现有的电力来源类型,包括水电、风电、核电、光伏、燃气 发电和煤电,均存在不同程度的问题,具备可调度能力的清洁能源(如 核电)建设周期普遍偏长,无法匹配当前AI 的快速需求;而建设速 度较快的能源则稳定性不足(如光伏、风电)或碳排放高(燃气发电、 煤电)。没有哪一种电源能够同时满足建设速度快、调度能力强、低 碳环保三方面的要求,使得能源供应和AI对电力的需求出现明显脱 节。 11 ·深企投产业研究 2025 年行业研究报告 · 图 4 不同电力来源特征 资料来源:国际能源署《2025 能源与人工智能报告》,国泰海通证券。 北美电网基础设施普遍老化,且长期缺乏系统性升级,叠加冗长 复杂的电力接入审批流程,严重制约了数据中心新增负荷的及时供电 能力。与此同时,数据中心高度集中于特定区域(如弗吉尼亚州北部 等核心枢纽),与可再生能源及稳定电源的地理分布存在显著错配, 进一步加剧了局部电网的承载压力,导致部分地区出现电力供应瓶颈, 不仅延长了项目投运周期,也显著推高了建设和运营成本。例如,弗 吉尼亚州北部部分数据中心面临长达七年的电网接入等待期;马斯克 旗下xAI 公司因无法及时获得稳定市电供应,被迫租用便携式燃气发 电机作为临时替代方案。在此背景下,2025 年 1 月,特朗普政府宣 布进入国家能源紧急状态,援引《国家紧急状态法》与《国防生产法》 授权,旨在加速能源基础设施审批以应对AI 负载激增。 2、散热能耗、水资源消耗与土地规模需求庞大 功耗密度攀升倒逼散热技术代际切换。在 AI大模型训练以及推 12 ·深企投产业研究 2025 年行业研究报告 · 理需求持续扩容驱动下,GPU 芯片作为算力核心,其功耗与性能密度 正同步跃升。英伟达机架系统计算容量已从传统 10-20kW 提升至当前 约 140kW,并规划 2027 年推出 600kW 级高密度机架,GPU 晶粒容纳数 量相应从 32 个增至 576 个,单位面积热流密度随之呈指数级增长。 据产业测算,百万卡GPU 集群的局部热流密度可超 250 瓦/平方米(W/m ² ) , 远超传统风冷技术 100-150W/m²的散热能力上限,迫使数据中 心加速从空气冷却向冷板液冷、浸没式液冷等方案迭代。这一技术转 型直接推高资本开支,液冷系统初始投资较风冷增加30%-50%,同时 冷板液冷仍存在水性冷却剂泄漏风险,且需应对现有数据中心改造的 兼容性与成本问题;浸没式冷却则受制于高性能氟化液的高成本及其 潜在环境影响。因此,液冷技术作为当前最先进的散热技术,仍无法 从根本上解决散热效率问题。 冷却能耗与水耗构成双重运营瓶颈。散热系统能耗通常占数据中 心总能耗 30%-40%,在超大规模AI集群中甚至可达 45%以上。与此同 时,散热过程伴随的水资源消耗问题日益凸显,成为制约数据中心可 持续发展的关键瓶颈。虽然液冷技术能够大幅降低水资源需求,但由 于 AI 训练集群规模呈指数级扩张,一个万卡 GPU 集群的总算力可能 相当于过去数百个传统数据中心,且主要依赖蒸发冷却,因此短期内 水耗仍在增加。 根据美国劳伦斯伯克利国家实验室的研究预测,到 2028 年,全 美数据中心年耗水量将攀升至约 740 亿加仑(约合 2800 万吨)。以 Meta 为例,其部分数据中心日最高用水量高达 600 万加仑,甚至超 过所在郡的居民日用水总量。测算显示,一个 40 兆瓦(MW)规模的 数据中心集群在其 10 年运营周期内,冷却系统累计耗水量可达 170 万吨。 13 在欧洲,Javier Farfan 团队的研究进一步指出,数字服务相关 用水量预计将从 2022 年的 2.09 亿吨增至 2030 年的 5.47 亿吨。届时, 欧洲人均每日因使用数字服务所产生的间接水足迹将超过 3 升,已高 于世界卫生组织建议的人均日常饮用水基本需求(约2-3升)。 数据中心对能源及水资源的大量消耗引发了美国当地居民的强 烈反弹,仅在 2025 年第二季度,就有 20 个大型数据中心项目因当地 社区的反对而被叫停或推迟,涉及投资额高达 980 亿美元。 (三)太空算力具备长期运营成本优势 优势一:取之不尽、边际成本趋零的能源优势 太空太阳能具有超高发电效率与持续供电能力。地球大气层外的 太阳辐照度(AM0 标准)约为 1366W/m² , 比到达地球海平面的强度(约 1000W/m² ) 高出约 30%-40%,且无大气衰减。地面太阳能电站受昼夜 和天气影响,平均容量因数(实际发电量与最大理论发电量之比)较 低,例如美国平均约24%,北欧温带地区可能低于 10%。而部署在特 定轨道(如晨昏太阳同步轨道)的太空太阳能阵列,可实现近乎 24 小时不间断光照,容量因子可超过95%。综合来看,同等规模的太阳 能阵列,在太空的年发电量可达地面的 5 倍以上。 优势二:利用宇宙深冷的零水耗散热优势 与能源优势相辅相成的是太空独一无二的散热环境。太空的真空 与接近绝对零度的背景,提供了地面无法企及的终极热沉。在太空中, 对流和传导基本失效,热辐射成为主导散热机制。热量通过热管或主 动式液体冷却回路,从芯片传导至卫星表面的大型辐射散热板,然后 以红外辐射形式直接散发到背景温度约为 -270℃(3K)的宇宙深空 中。对于高功率算力卫星,可以采用主动式液体冷却回路甚至直接芯 14 ·深企投产业研究 2025 年行业研究报告 · 片液冷技术,并配备面积巨大的可展开散热翼板,以提升辐射散热能 力。在水资源消耗方面,太空数据中心彻底摆脱了对冷却塔蒸发、水 冷液循环等水资源的高度依赖。 根据 StarCloud 分析,在未来商业航天成熟、发射成本大幅下降 后,单个 40MW 集群在太空运营 10 年期的总成本约为 820 万美元,而 地面运营成本高达 1.67 亿美元(美国),开源证券测算在中国对应 运营成本为0.97 亿美元,如下表所示。 表 2 单个 40MW 算力集群在太空与地面运营 10 年的成本对比 成本项目 地面(美国) 地面(中国) 太空 能源成本 1.4 亿美元 (按 0.04 美元 /kWh 计算) 0.7 亿美元(按 0.02 美元/kWh 计 算) 200 万美元(仅为 太阳能电池阵列 的成本) 发射成本 无需 无需 500 万美元(计算 模块、太阳能电 池和散热器的一 次性发射成本) 冷却能耗 700 万美元(占总 功耗的 5%) 700 万美元 利用太空更高的 温差,采用更高 效的冷却架构 用水量 170 万吨 —— 无需 封装(卫星平台 /建筑成本) 成本相近 成本相近 成本相近 备用电源 2000 万美元(按 商业设备价格计 算) 2000 万美元 无需 其他数据中心 硬件 成本相近 成本相近 成本相近 辐射屏蔽 无需 无需 120 万美元(按计 算功率每 kW 需 1kg 屏蔽物,发射 成本 30 美元/kg 计算) 15 ·深企投产业研究 2025 年行业研究报告 · 成本项目 地面(美国) 地面(中国) 太空 成本合计 1.67 亿美元 0.97 亿美元 820 万美元 资料来源:StarCloud《Why we should train AI in space》、开源证券, 深企投产业研究院整理。 (四)商业航天技术进步,发射成本将进入可负担区间 发射与运载能力瓶颈是太空算力从蓝图走向现实必须跨越的第 一道“天堑 ”。太空数据中心要实现与地面数据中心可比的运营经济 性,一个关键的盈亏平衡点在于将发射成本降至约 200 美元/公斤。 当前,高昂的发射成本使得经济可行性存疑,SpaceX 对外商业报价 在 3000 美元/公斤左右,国内则达到8 万元/公斤。同时,当前有限 的火箭运力也限制了太空基础设施的构建速度与单体规模。 商业航天尤其是可回收火箭技术的成熟,正使进入太空的门槛急 剧降低。 目前,SpaceX 猎鹰 9 号已将发射成本降至约 1500 美元/公 斤以下,预计 2030 年以后 SpaceX 的单位发射成本降至 200 美元/公 斤以下,为太空算力商业化铺平道路。当前我国商业航天卫星发射成 本远高于 SpaceX,发射频次与运力差距极大,成为太空算力商业化 的最大瓶颈。 1、SpaceX 引领全球商业航天发展,发射成本快速下降 SpaceX 猎鹰9 号自 2015 年首次成功回收一级火箭(助推器)以 来,已常态化执行一级回收,至 2025 年底执行了 500 多次重复使用 助推器的复飞任务。2025 年 12 月 8 日,猎鹰 9 号执行 Starlink6-92 任务,将 29 颗星链卫星送入低地球轨道,本次一级助推器 B1067 完 成第 32 次使用。2019 年起猎鹰 9 号实现整流罩海上打捞与翻新复用, 整流罩复用次数最高达 30 余次 。猎鹰 9 号的全新火箭成本约 16 ·深企投产业研究 2025 年行业研究报告 · 4500-5000 万美元,通过一级火箭和整流罩的回收和重复使用,复用 成本(也可理解为边际成本)可降至 1500 万美元,其中包含制造不 可复用的二级火箭(约 1000 万美元)、推进剂、氦气、发射测控、 翻修等相关费用。根据测算,当复用次数 10 次以上时,猎鹰9 号的 平均发射成本趋近于 1700 万美元。 图 5 复用情况下猎鹰 9 运载火箭的平均成本 资料来源:朱雄峰等《猎鹰-9 运载火箭发射成本研究》。 以多次复用后的平均成本 1700 万美元计算,按照海上回收低轨 卫星运力 19 吨、陆上回收低轨卫星运力 14 吨,可推算出猎鹰9 号的 发射成本最低可至 900-1200 美元。目前,SpaceX 猎鹰 9 号已将发射 成本降至约 1500 美元/公斤以下(非对外商业报价),相比传统一次 性火箭(约 1.85 万美元/公斤)降低了约一个数量级,而重型猎鹰 (Falcon Heavy )的发射成本进一步降至 1400-1500 美元/公斤。 SpaceX 下一代星舰(Starship)的目标是进一步将发射成本降至每 17 公斤 60-200 美元。 图 6 SpaceX 总载荷质量(吨)以及每公斤有效成本曲线 资料来源:Reddit,TECTONYX,未来天玑,中邮证券。 预计 2030 年以后 SpaceX 的单位发射成本将降至 200 美元/公斤 以下,为太空算力商业化铺平道路。根据谷歌内部模型的测算,以 Starlink v2Mini 卫星为参照,在 200 美元/公斤的发射成本假设下, 将其送入低地球轨道并按 5 年在轨寿命分摊,对应的“发射功率价格 ” (即单位算力功率的年化发射成本)约为 810 美元/kW/年。这一数值 已显著低于当前美国地面数据中心的综合电力成本区间,后者因地区、 能源结构和冷却效率差异,通常在 570 美元至 3000 美元/kW/年之间 (含 PUE 损耗及电费)。这意味着,一旦 SpaceX 的星舰(Starship) 系统实现完全可复用,并将发射成本稳定压降至 200 美元/公斤以下, 太空部署AI算力的“能源等效成本 ”将首次具备经济优势,甚至全 面低于地面数据中心。值得注意的是,SpaceX 历史上展现出极强的 成本学习曲线,其累计发射质量每翻一番,单位发射成本平均下降约 20%。若该降本趋势延续,结合星舰设计运力(100-250 吨),200 美 元/公斤的发射成本有望在 2030-2035 年间达成,从而为太空算力的 18 ·深企投产业研究 2025 年行业研究报告 · 商业化铺平道路。 2、我国商业航天企业加快追赶,可重复使用火箭实验 密集发射 当前我国商业航天卫星发射成本远高于 SpaceX。根据《科创板 日报》援引业内人士说法,目前国内卫星发射费用存在明显差异,主 流商业发射报价集中在每公斤 5 万-10 万元,但部分小型火箭或特殊 轨道发射,费用仍可达每公斤 15 万元。以此计算,一颗 500 公斤级 的卫星,发射费用最高可能达到 7500 万元。根据相关报道,中国卫 星发射成本已从 2019 年的约 12 万元/公斤降至 2023 年的约8 万元/ 公斤。蓝箭航天的朱雀三号可回收火箭目标是将成本降至每公斤2 万 元量级。 火箭运力和发射频次差距极大。一个 GW 级的数据中心可能需要 数万吨的硬件,依靠当前单次十吨级至百吨级的运力,需要成百上千 次发射,这在时间和经济上都是巨大挑战,因此需要大力发展如 SpaceX 星舰这类重型、超大运力火箭,而目前中美在重型火箭的现 役运力上仍存在数量级差距(约4-6 倍),直接制约了单次发射的载 荷规模,影响了太空数据中心快速、规模化部署的进程。 SpaceX 的猎鹰 9 号一次性运力可达到22.8 吨,重型猎鹰则达到 63.8 吨,在研的星舰目标运力为 100-250 吨。与之相比,国内现役 主力火箭长征七号低轨运力为 13.5-14 吨,民营商业火箭中已成功入 轨的型号(如引力一号)最大运力为6.5 吨,规划运力最高的型号(如 朱雀三号)也仅约 20 吨。中国重型运载火箭长征九号的一级重复使 用构型预计在 2030 年首飞 ,而两级完全重复使用构型则计划 2033-2035 年首飞,目标低轨运力为 150 吨,届时与星舰等国际重型 火箭运力相当。 19 ·深企投产业研究 2025 年行业研究报告 · 2025 年,SpaceX 发射次数达到 170 次(含 5 次星舰试飞), 占 美国总轨道发射次数的85%,其中 123 次用于部署星链卫星,送入超 3000 颗,入轨质量预计接近甚至可能超过 2024 年所有国家和公司送 入太空的总质量。而我国国家队中国航天全年完成 73 次发射任务, 民营商业航天公司如星河动力、中科宇航、蓝箭航天、天兵科技等均 为个位数,与 SpaceX 存在较大差距。 表 3 2025 年我国航天企业发射与 SpaceX 对比 企业 发射次数 火箭型号 入轨卫星 数量 合计入轨 质量 SpaceX 170 猎鹰 9 号 165 次、 星舰5 次 3190 颗 2200-2400 吨 中国航天科 技集团 73 长征系列69 次、 捷龙三号 4 次 超 300 颗 未披露 航天科工 3 快舟系列 未披露 未披露 星河动力 6 谷神星一号,成功 5 次 27 颗 1 吨 中科宇航 5 力箭一号 27 颗 6 吨 蓝箭航天 3 朱雀二号改进型+ 朱雀三号,失败 1 次 6 颗 近 1 吨 东方空间 1 引力一号 3 颗 500 公斤 星际荣耀 1 双曲线一号 1 颗 100 公斤 资料来源:腾讯网等,深企投产业研究院整理。 我国可回收火箭实验进入密集发射期。能够实现火箭回收技术突 破,是我国商业航天企业追赶 SpaceX 的关键所在。在可回收运载火 箭研制方面,国内包括中国航天的长征十二号甲、航天科工的快舟六 号、蓝箭航天的朱雀三号、星河动力的智神星一号、天兵科技的天龙 20 ·深企投产业研究 2025 年行业研究报告 · 三号、星际荣耀的双曲线三号、东方空间的引力二号、箭元科技的元 行者一号、千亿航天的宇宙猎人号、深蓝航天的星云一号。2025 年 12 月,朱雀三号、长征十二号甲相继进行回收实验首飞,均实现二 级入轨,一级回收未能成功,但验证了大量的火箭重复使用技术。预 计 2026 年我国将迎来可回收火箭实验的密集发射期,有望加快追赶 SpaceX,也为 2030 年后太空算力构建提供运力基础。 21 中美太空算力布局进展 ·深企投产业研究 2025 年行业研究报告 · 中美两国是当前太空算力与太空数据中心的主要引领者,已形成 两种截然不同的发展路径。美国由于地面数据中心面临严峻的能源与 散热资源约束,其科技巨头对太空算力商业化的需求更为迫切,凭借 在商业航天运力方面的显著优势,加速推进在轨计算验证与星座部署, 有望在短期内实现技术原型和早期商业化应用的突破。中国则采用政 府与顶尖研究所协同引领、工程化推进的模式,由国家级实验室和顶 尖高校牵头,以重大科技专项为牵引,分阶段推动太空计算星座组网, 强调技术自主可控、天地一体化架构与长期战略支撑能力。 一、美国太空算力研发布局进展 美国在太空算力领域已形成以科技巨头为主导、依托成熟商业航 天和科技产业生态的差异化发展路径。SpaceX、Starcloud、谷歌、 亚马逊、英伟达等企业凭借各自核心能力,从单点技术验证、轨道验 证到进入提供商业化服务初期阶段,正在定义未来太空算力的商业标 准。 (一)SpaceX SpaceX 凭借其可复用火箭能力和星链(Starlink)低轨星座, 正在探索从通信服务向天基计算基础设施的战略延伸,其最有可能构 建卫星平台——火箭发射——星座组网——算力服务的太空算力生 态闭环。SpaceX 计划于 2026 年推出的 Starlink V3 卫星平展开阅读全文
咨信网温馨提示:1、咨信平台为文档C2C交易模式,即用户上传的文档直接被用户下载,收益归上传人(含作者)所有;本站仅是提供信息存储空间和展示预览,仅对用户上传内容的表现方式做保护处理,对上载内容不做任何修改或编辑。所展示的作品文档包括内容和图片全部来源于网络用户和作者上传投稿,我们不确定上传用户享有完全著作权,根据《信息网络传播权保护条例》,如果侵犯了您的版权、权益或隐私,请联系我们,核实后会尽快下架及时删除,并可随时和客服了解处理情况,尊重保护知识产权我们共同努力。
2、文档的总页数、文档格式和文档大小以系统显示为准(内容中显示的页数不一定正确),网站客服只以系统显示的页数、文件格式、文档大小作为仲裁依据,个别因单元格分列造成显示页码不一将协商解决,平台无法对文档的真实性、完整性、权威性、准确性、专业性及其观点立场做任何保证或承诺,下载前须认真查看,确认无误后再购买,务必慎重购买;若有违法违纪将进行移交司法处理,若涉侵权平台将进行基本处罚并下架。
3、本站所有内容均由用户上传,付费前请自行鉴别,如您付费,意味着您已接受本站规则且自行承担风险,本站不进行额外附加服务,虚拟产品一经售出概不退款(未进行购买下载可退充值款),文档一经付费(服务费)、不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
4、如你看到网页展示的文档有www.zixin.com.cn水印,是因预览和防盗链等技术需要对页面进行转换压缩成图而已,我们并不对上传的文档进行任何编辑或修改,文档下载后都不会有水印标识(原文档上传前个别存留的除外),下载后原文更清晰;试题试卷类文档,如果标题没有明确说明有答案则都视为没有答案,请知晓;PPT和DOC文档可被视为“模板”,允许上传人保留章节、目录结构的情况下删减部份的内容;PDF文档不管是原文档转换或图片扫描而得,本站不作要求视为允许,下载前可先查看【教您几个在下载文档中可以更好的避免被坑】。
5、本文档所展示的图片、画像、字体、音乐的版权可能需版权方额外授权,请谨慎使用;网站提供的党政主题相关内容(国旗、国徽、党徽--等)目的在于配合国家政策宣传,仅限个人学习分享使用,禁止用于任何广告和商用目的。
6、文档遇到问题,请及时联系平台进行协调解决,联系【微信客服】、【QQ客服】,若有其他问题请点击或扫码反馈【服务填表】;文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“【版权申诉】”,意见反馈和侵权处理邮箱:1219186828@qq.com;也可以拔打客服电话:0574-28810668;投诉电话:18658249818。




2026太空算力发展研究报告.docx



实名认证













自信AI助手
















微信客服
客服QQ
发送邮件
意见反馈



链接地址:https://www.zixin.com.cn/doc/13347430.html