【国盛通信】Deep Seek 的启示:不容忽视的算力前端需求
2025-02-15 23:11
吉时通信
2025-02-15 23:11
订阅此专栏
收藏此文章

摘要

DeepSeek 对算力效率的提升一度让市场对算力的逻辑产生分歧,而随着 DS 用户数的增长,算力紧缺的现实却不容忽视。事实告诉我们,当用户规模爆发后,推理带来的前端需求将让 AI 算力的蛋糕越变越大。伴随近期 AI Agent 等热点技术快速落地以及各深度学习架构的快速进展,叠加海内外各巨头均增加 AI 相关投资,AI 应用的需求起量已成为必然趋势。而 AI 应用起量将带动算力前端需求迅速增长。我们认为,伴随 AI 应用增长推动计算集群由十万卡向百万卡规模迈进,其中 GPU 与光模块的配比关系将从传统的线性协同预期向超线性依赖方向演进。


【前后端适配:性能与数据需求驱动】


以往市场普遍认为计算集群中每块 GPU 通常配备 3 个光模块,主要用于横向互联(GPU-GPU)和 CPU 的连接。而随着未来技术演进以及计算集群规模的大幅扩张,光模块配比将大幅上升,以用于更高的前后端带宽适配:


  • NVLink:一种点对点连接接口,目前最高可实现 8:1 甚至更高的 GPU 对 GPU 直连,计算集群所需的高带宽、低延迟要求越高,GPU-GPU 直连数量越多,导致光模块数量激增。

  • NVSwitch:基于 NVLink 的一种硬件交换机,可支持 16 个甚至更多的 GPU 之间的高带宽通信,实现“每个 GPU 到其他所有 GPU”之间的直接数据传输,GPU 数量越多所需光模块比例越高。

  • 更高吞吐的存储前端:数据吞吐量增加拉动存储需求增加,而采用高 IOPS 存储(如 HBM+PCle   Gen5/6+CXL)则可能需要更多光连接以避免存储成为瓶颈。

  • 外部数据接入优化:模型推理任务对实时数据流、外部数据库或云端数据输入依赖更大,导致前端光模块需求上升。


【应用场景:低延迟、高带宽将成主流】


从模型训练以及推理视角来看,大模型训练阶段虽模型参数巨大,但 GPU-GPU 通信是主要瓶颈,传统 3 倍光模块即可满足需求。而在推理以及应用阶段,计算集群需接入海量外部数据(多模态数据、数据流、IoT 设备等),需要更强的前端 IO 和数据传输带宽,导致光模块需求大增。从数据流架构来看,传统 HPC 或 AI 训练的数据基本在本地高带宽存储和 GPU 互联之间传输,对光模块需求较低。而 AI 推理所需的 CDN 式数据访问(分布式数据存储 + 云计算源,AI 推理中主要解决带宽有限、延迟高问题)则需要高吞吐的光连接。


我们认为,伴随未来大量 AI 应用落地,海量的外部数据和 AI 推理实时响应的特性将驱动低延迟、高宽带的光互连成为主流,光模块在大规模 AI 集群的作用将持续扩大。同时 AI 推理和应用侧对高 IO、低时延数据流的需求增加,未来随着存算分离、光互连、CXL、分布式计算的发展,光模块需求在 AI 数据中心中的占比可能持续上升。


【AI 推理:仍需大规模集群,高速率光模块将逐步普及】


目前超大规模 AI 推理如大模型 API 服务、搜索推荐、AI   Agent 在推理时需要跨多个 GPU 访问键值缓存,如 xAI 采用了十万卡集群用于推理、Deep Seek 由于访问数过多频繁出现“服务器繁忙”问题均说明大规模推理仍有需求。


AI 推理数据吞吐远超训练阶段,高速率光模块将迎来产品切换。AI 模型训练时通常使用本地数据集,而推理阶段需要接收海量的外部数据,这将导致数据中心需要更高速率、更低延迟的光模块来存储、计算和外部数据源。我们认为,随着 AI 推理对数据处理要求越来越高,800G、1.6T 光模块将逐步普及。另一方面 CPO 等低功耗、高带宽方案将成为主流。


【数据中心:推理侧需求体量拉动去下·库存加速】


正如我们上述观点,Deep Seek 服务器频繁宕机说明一个问题——目前推理侧机房数量不足以支撑其提供如此多的用户访问并提供推理服务,这反映了 AI 推理端对机房的大量需求。而上一波云计算浪潮带来的 IDC 建设高峰留下了大量空置或低租金的存量资源,我们认为随着 AI 端推理侧的需求增加,将会加速老旧数据中心去库存进程,加速机房改造并高资源利用率。


综上,我们仍长期看好算力板块,重点推荐光通信龙头中际旭创、新易盛、天孚通信等。同时建议关注相关产业链如光互连方向太辰光、德科立等,数据中心方向润泽科技、万国数据、数据港、光环新网、奥飞数据等,CDN 方向网宿科技等。


建议关注:

算力——

光通信:中际旭创、新易盛、天孚通信、太辰光、腾景科技、光库科技、光迅科技、德科立、联特科技、华工科技、源杰科技、剑桥科技、铭普光磁。铜链接:沃尔核材、精达股份。算力设备:中兴通讯、紫光股份、锐捷网络、盛科通信、菲菱科思、工业富联、沪电股份、寒武纪、海光信息。液冷:英维克、申菱环境、高澜股份。边缘算力承载平台:美格智能、广和通、移远通信。卫星通信:中国卫通、中国卫星、震有科技、海格通信。IDC:润泽科技、光环新网、奥飞数据、科华数据、润建股份。


数据要素——

运营商:中国电信、中国移动、中国联通。数据可视化:浩瀚深度、恒为科技、中新赛克。


风险提示:AI 发展不及预期,算力需求不及预期,市场竞争风险。


1.    投资策略:Deep Seek 的启示:不容忽视的算力前端需求

本周建议关注:


算力——

光通信:中际旭创、新易盛、天孚通信、太辰光、腾景科技、光库科技、光迅科技、德科立、联特科技、华工科技、源杰科技、剑桥科技、铭普光磁。

铜链接:沃尔核材、精达股份。

算力设备:中兴通讯、紫光股份、锐捷网络、盛科通信、菲菱科思、工业富联、沪电股份、寒武纪。

液冷:英维克、申菱环境、高澜股份。

边缘算力承载平台:美格智能、广和通、移远通信。

卫星通信:中国卫通、中国卫星、震有科技、华力创通、电科芯片、海格通信。

IDC:润泽科技、光环新网、奥飞数据、科华数据、润建股份。


数据要素——

运营商:中国电信、中国移动、中国联通。

数据可视化:浩瀚深度、恒为科技、中新赛克。


本周观点变化:

本周国内数据中心相关标的行情较好,主要由于 AI 技术迭代加快,叠加海内外均增加 AI 相关领域投资,继“星际之门”计划后,欧盟宣布投资 2000 亿欧元用于 AI 研发,各国进行 AI 竞赛的现状大幅提振市场对于数据中心建设的信心,其中奥飞数据、光环新网本周分别涨 13%、6%;海外方面算力产业链如英伟达等行情回暖,其中英伟达、Meta 本周分别涨 6.9%、3.1%。

 

我们仍长期看好算力板块,重点推荐光通信龙头中际旭创、新易盛、天孚通信等。同时核心建议关注相关产业链如光互连方向太辰光、德科立等,数据中心方向润泽科技、万国数据、数据港、光环新网、奥飞数据等,CDN 方向网宿科技等。

2. 行情回顾:通信板块上涨,移动互联表现最优

本周(2025 年 2 月 10 日 -2025 年 2 月 14 日)上证综指收于 3346.72 点。各行情指标从好到坏依次为:创业板综>万得全 A(除金融,石油石化) >万得全 A>中小板综>上证综指>沪深 300。通信板块上涨,表现优于上证综指。



从细分行业指数看;移动互联、云计算、区块链、运营商、量子通信分别上涨 8.3%、6.5%、5.9%、5.0%、4.3%,表现优于通信行业平均水平;物联网、卫星通信导航、光通信、通信设备分别上涨 3.4%、1.1%、0.3%、0.2%,表现劣于通信行业平均水平。


本周,受益于软件开发概念,拓维信息上涨 47.797%,领涨版块。受益于 DRG/DIP 概念,思创医惠上涨 39.634%;受益于 Deep Seek 概念,日海智能上涨 37.422%;受益于阿里巴巴概念,中恒电气上涨 31.067%;受益于数据安全概念,ST 信通上涨 27.476%。


3.周专题:Deep Seek 的启示:不容忽视的算力前端需求

DeepSeek 对算力效率的提升一度让市场对算力的逻辑产生分歧,而随着 DS 用户数的增长,算力紧缺的现实却不容忽视。事实告诉我们,当用户规模爆发后,推理带来的前端需求将让 AI 算力的蛋糕越变越大。伴随近期 AI Agent 等热点技术快速落地以及各深度学习架构的快速进展,叠加海内外各巨头均增加 AI 相关投资,AI 应用的需求起量已成为必然趋势。而 AI 应用起量将带动算力前端需求迅速增长。我们认为,伴随 AI 应用增长推动计算集群由十万卡向百万卡规模迈进,其中 GPU 与光模块的配比关系将从传统的线性协同预期向超线性依赖方向演进。


【前后端适配:性能与数据需求驱动】


以往市场普遍认为计算集群中每块 GPU 通常配备 3 个光模块,主要用于横向互联(GPU-GPU)和 CPU 的连接。而随着未来技术演进以及计算集群规模的大幅扩张,光模块配比将大幅上升,以用于更高的前后端带宽适配:


  • NVLink:一种点对点连接接口,目前最高可实现 8:1 甚至更高的 GPU 对 GPU 直连,计算集群所需的高带宽、低延迟要求越高,GPU-GPU 直连数量越多,导致光模块数量激增。

  • NVSwitch:基于 NVLink 的一种硬件交换机,可支持 16 个甚至更多的 GPU 之间的高带宽通信,实现“每个 GPU 到其他所有 GPU”之间的直接数据传输,GPU 数量越多所需光模块比例越高。

  • 更高吞吐的存储前端:数据吞吐量增加拉动存储需求增加,而采用高 IOPS 存储(如 HBM+PCle   Gen5/6+CXL)则可能需要更多光连接以避免存储成为瓶颈。

  • 外部数据接入优化:模型推理任务对实时数据流、外部数据库或云端数据输入依赖更大,导致前端光模块需求上升。


【应用场景:低延迟、高带宽将成主流】


从模型训练以及推理视角来看,大模型训练阶段虽模型参数巨大,但 GPU-GPU 通信是主要瓶颈,传统 3 倍光模块即可满足需求。而在推理以及应用阶段,计算集群需接入海量外部数据(多模态数据、数据流、IoT 设备等),需要更强的前端 IO 和数据传输带宽,导致光模块需求大增。从数据流架构来看,传统 HPC 或 AI 训练的数据基本在本地高带宽存储和 GPU 互联之间传输,对光模块需求较低。而 AI 推理所需的 CDN 式数据访问(分布式数据存储 + 云计算源,AI 推理中主要解决带宽有限、延迟高问题)则需要高吞吐的光连接。


我们认为,伴随未来大量 AI 应用落地,海量的外部数据和 AI 推理实时响应的特性将驱动低延迟、高宽带的光互连成为主流,光模块在大规模 AI 集群的作用将持续扩大。同时 AI 推理和应用侧对高 IO、低时延数据流的需求增加,未来随着存算分离、光互连、CXL、分布式计算的发展,光模块需求在 AI 数据中心中的占比可能持续上升。


【AI 推理:仍需大规模集群,高速率光模块将逐步普及】


目前超大规模 AI 推理如大模型 API 服务、搜索推荐、AI   Agent 在推理时需要跨多个 GPU 访问键值缓存,如 xAI 采用了十万卡集群用于推理、Deep Seek 由于访问数过多频繁出现“服务器繁忙”问题均说明大规模推理仍有需求。


AI 推理数据吞吐远超训练阶段,高速率光模块将迎来产品切换。AI 模型训练时通常使用本地数据集,而推理阶段需要接收海量的外部数据,这将导致数据中心需要更高速率、更低延迟的光模块来存储、计算和外部数据源。我们认为,随着 AI 推理对数据处理要求越来越高,800G、1.6T 光模块将逐步普及。另一方面 CPO 等低功耗、高带宽方案将成为主流。


【数据中心:推理侧需求体量拉动去下·库存加速】


正如我们上述观点,Deep Seek 服务器频繁宕机说明一个问题——目前推理侧机房数量不足以支撑其提供如此多的用户访问并提供推理服务,这反映了 AI 推理端对机房的大量需求。而上一波云计算浪潮带来的 IDC 建设高峰留下了大量空置或低租金的存量资源,我们认为随着 AI 端推理侧的需求增加,将会加速老旧数据中心去库存进程,加速机房改造并提高资源利用率。


综上,我们仍长期看好算力板块,重点推荐光通信龙头中际旭创、新易盛、天孚通信等。同时建议关注相关产业链如光互连方向太辰光、德科立等,数据中心方向润泽科技、万国数据、数据港、光环新网、奥飞数据等,CDN 方向网宿科技等。

4.   欧盟将豪掷 2000 亿欧元用于 AI 研发

据 C114 报道,在巴黎举行的 AI 行动峰会期间,欧盟宣布将投入 2000 亿欧元用于 AI 的研发,其中包括将用于建设处理和训练大模型的“AI 巨型工厂”的 20 亿欧元(当前约 151.11 亿元人民币)。


在当地时间周二的峰会上,欧盟委员会主席乌尔苏拉 冯 德莱恩宣布了这一名为 InvestAI 的计划,并强调欧洲并未在与中美的竞争中落后。“前沿技术始终在发展,领导地位依然可以争取,而在这一前沿之后,AI 的应用将涉及到整个世界,”冯 德莱恩表示。“欧洲在将 AI 应用于特定行业、提升生产力和改善民生方面,具备独特的领先优势。”


消息发布后,法国也宣布私人投资将向其 AI 生态系统注入 1090 亿欧元(当前约 8235.74 亿元人民币)。此外,法国还承诺为由 FluidStack 主导的 AI 计算项目提供 1 吉瓦的核能支持,项目将使用英伟达的芯片。


刚刚过去的 1 月,美国和中国的 AI 领域迎来了重要的增长节点。在美国,OpenAI 与软银宣布了价值 5000 亿美元(当前约 3.65 万亿元人民币)的合作协议“星际之门”,旨在共同建设 AI 基础设施;在中国,DeepSeek 迅速走向国际舞台,其产品不仅质量与竞争者相当,开发成本远低于对手。

5.  豆包大模型团队提出全新的稀疏模型架构 UltraMem,推理速度较 MoE 架构提升 2-6 倍,推理成本最高可降低 83%

根据豆包官方公众号,近期,字节跳动豆包大模型团队提出了全新的稀疏模型架构 UltraMem,该架构有效解决了 MoE 推理时高额的访存问题,推理速度较 MoE 架构提升 2-6 倍,推理成本最高可降低 83%。该研究还揭示了新架构的 Scaling Law,证明其不仅具备优异的 Scaling 特性,更在性能上超越了 MoE。


实验结果表明,训练规模达 2000 万 value 的 UltraMem 模型,在同等计算资源下,可同时实现业界领先的推理速度和模型性能,为构建数十亿规模 value 或 expert 开辟了新路径。


在 Transformer 架构下,模型的性能与其参数数量和计算复杂度呈对数关系。随着 LLM 规模不断增大,推理成本会急剧增加,速度变慢。尽管 MoE 架构已经成功将计算和参数解耦,但在推理时,较小的 batch size 就会激活全部专家,导致访存急剧上升,进而使推理延迟大幅增加。


为此,字节跳动豆包大模型 Foundation 团队提出 UltraMem,一种同样将计算和参数解耦的稀疏模型架构,在保证模型效果的前提下解决了推理的访存问题。实验结果表明,在参数和激活条件相同的情况下,UltraMem 在模型效果上超越了 MoE,并将推理速度提升了 2-6 倍。此外,在常见 batch size 规模下,UltraMem 的访存成本几乎与同计算量的 Dense 模型相当。

6. 2024 年全球企业人工智能存储领域支出达 67 亿美元 未来五年年复合增长率为 12.2%

据 C114 报道,国际数据公司(IDC)与浪潮信息联合发布《2025 年中国人工智能计算力发展评估报告》,《报告》指出,随着人工智能技术的飞速发展,企业对数据存储的需求达到了前所未有的高度。


IDC 数据显示,2024 年全球企业在人工智能存储领域的支出达到 67 亿美元,2025 年将增至 76 亿美元,2028 年有望达到 102 亿美元,2023-2028 年五年年复合增长率为 12.2%。


大模型训练和生成式人工智能技术的应用对存储市场产生了显著影响。首先,算力的增强推动了对存储性能需求的升级。存储系统需要具备更大的容量、更快的读写速度、更低的延迟、更高的可靠性和更佳的灵活性,以支持高效的数据处理与模型训练,同时适应不断增长的数据量和扩大模型规模的需求。在这个过程中,分布式存储架构凭借其性能线性扩展的优势,成为训练场景的主要选择。


随着算力集群规模扩大,存储带宽需相应提升,传统集中式存储和串行运算模式已难以满足需求。分布式存储与并行运算的结合,为人工智能领域提供了新的解决方案。分布式存储系统通过将数据分散在多个物理节点上,提供冗余备份、无限扩展性和并行访问,提升数据可靠性和容错性,系统可以迅速从其他节点恢复数据,确保应用的连续运行;支持 PB 级甚至 EB 级数据扩展,满足人工智能模型对海量数据的需求;支持并行访问,多个节点可以同时读取和写入数据,降低数据访问延迟。


其次,存储系统需要能够灵活应对复杂的数据治理和应用需求。当训练出的大模型应用于具体行业时,需要将行业内的各种数据与大模型结合,而这些海量数据来源广泛、类型多样且分布在不同地点,企业需要高效完成这些数据的汇集和预处理。除分布式存储架构外,多协议支持将成为关键。存储系统需要支持多种数据访问协议以及具备无损互通非结构化数据的能力,兼容不同数据格式和传输方式,从而提高数据管理的效率和灵活性,满足复杂应用场景的需求。


未来,随着推理工作负载的增加,存储系统将更加注重快速读写数据、实时响应推理任务、支持大量并发访问以及确保数据的高可用性和完整性。通过采用 NVMe SSD 等高性能存储介质,结合数据缓存和预取机制,设计灵活的扩展方案,并实施智能数据管理和优化策略,可以帮助企业提高存储利用率和性能,优化数据治理,加速数据价值挖掘。


全闪存存储方案凭借其卓越的数据传输速度、更低的能耗以及更高的单位物理空间容量,在人工智能市场中展现出强劲的增长势头。特别是 QLC SSD(四层单元固态硬盘),预计将在以读取为中心的工作负载及应用程序中,以及缓存和分层架构的企业 SSD 市场中占据越来越重要的地位。PCIe 接口协议正逐步占据更大的市场份额,代表下一代高性能网络技术的 NVMe over Fabric(NVMe-oF)也开始崭露头角。NVMe-oF 能够提供服务器与网络存储间极低的访问延迟,从而充分发挥 NVMe SSD 的优势并加速其普及。

7. LightCounting:2025 年以太网光模块市场将增长 50%

据 C114 报道,光通信行业市场研究机构 LightCounting 在最新报告中指出,AI 对光连接的需求依然强劲,但是相关元器件的短缺阻碍了 2024 年 Q4 光模块销售的增长,这一情况将会延续到 2025 年上半年。


亚马逊、Meta、微软、甲骨文、谷歌母公司 Alphabet 在 2024 年的资本开支仍明显高于 2023 年,特别是在 2024 年 Q4,这几家公司的资本开支总和同比增长了 73%。


如下图所示,2024 年 Q4,甲骨文的资本开支同比增长了 268%,但它是 TOP5 中规模最小的。甲骨文在 2024 年资本开支不到 110 亿美元,而 Meta 和亚马逊分别为 390 亿美元和 830 亿美元。


甲骨文首席执行官表示,2025 财年的资本开支将是 2024 年的两倍。Alphabet、Meta 和微软计划在 2025 年的资本开支增长超过 40%,亚马逊计划增长 20%。到目前为止,DeepSeek 的成功并没有改变这些云服务厂商的资本开支计划。



Coherent 报告称,2024 年 Q4 仅环比增长 6%,预计与 2025 年 Q1 的营收持平。LightCounting 预计旭创科技的营收增长也将出现类似的趋势,但其他光模块供应商可能会继续报告两位数的增长率。


作为 800G DR8 和 2xFR4 光模块的主要供应商,Coherent 和旭创科技将受限于 100G EML 的供应短缺。同时,谷歌和英伟达将推迟部署 1.6T 光模块,进一步冲击这两家企业的业绩。


Lumentum 报告 2024 年 Q4 营收环比增长 20%,该公司开始向一家新的超大规模客户交付光模块,并创下 EML 销售额的新纪录。另一家领先的 EML 供应商住友电工称,营收在 2024 年 Q4 实现了两位数的增长。


中国光模块制造商将在今年 4 月份公布全年业绩,但其中几家已经公布了 2024 年的业绩预告,净利润大幅增长。中国领先的云计算公司对光模块的需求也在急剧增长。与此同时,全球众多二线云计算公司和初创企业也将为 2025 年及以后的市场增长做出贡献。


LightCounting 预计 EML 短缺将在 2025 年下半年缓解,硅光方案将继续获得市场份额。“我们仍然预计 2025 年以太网光模块的销售额将增长 50%。

8. OpenAI 宣布 GPT-5 即将发布:用户可免费使用“王炸级”技术突破

据 C114 报道,2 月 12 日凌晨,OpenAI 首席执行官萨姆·奥尔特曼(Sam Altman)通过社交平台 X 宣布,公司将在未来几个月内正式推出新一代人工智能模型 GPT-5。


此次更新被业界称为“王炸级”技术突破,而且免费版用户也能够体验到最新模型。

GPT-5 将在 ChatGPT 和 API 中融合 OpenAI 多项核心技术,包括原计划独立发布的推理模型 o3。该模型将集成语音交互、画布创作、实时搜索及深度研究等能力,进一步扩展应用场景。


免费用户可无限制使用基础版 GPT-5,付费用户(Plus 版 20 美元 / 月、Pro 版 200 美元 / 月)则可解锁解锁更高智能级别与深度研究次数。


奥尔特曼表示,OpenAI 将彻底调整其人工智能产品路线图,未来数周内发布 GPT-4.5 作为过渡产品,而数月后发布的 GPT-5 将是真正的变革者。


OpenAI 近期动作频频,可见 Deepseek 的爆火带给 OpenAI 的压力和威胁。OpenAI 急需展示自身的技术实力以保持市场地位,同时,OpenAI 目前正处于融资关键阶段,也需要稳定投资者信心。

9.CSP、OEM 需求强劲,2024 年全球 AI 服务器出货量同比增长 46%

据 C114 报道,根据 TrendForce 集邦咨询最新研究,2024 年全球 AI 服务器(Server)出货量受惠于 CSP、OEM 的强劲需求,年增幅度为 46%。


国际形势、DeepSeek 效应、英伟达 GB200/GB300 Rack 供应链整备进度等将成为影响 2025 年 AI Server 出货量的变量,TrendForce 集邦咨询据此提出三种情境预估。第一种为基础情境(base case),研判发生的机率最高。近期 Microsoft、Meta、Amazon、Google 等主要 CSP 业者皆宣布,扩大今年对云端或 AI 基础设施的资本支出,平均年成长可望逾 30%,将支撑 AI Server 需求动能。另外,目前供应链对全年整体 AI Server 出货量评估尚无明显变化,在此情境下,TrendForce 集邦咨询预估 2025 年全球 AI Server 出货量有望年增近 28%。然而,若今年 GB200/GB300 Rack 出货放量遇到挑战,CSP 等终端客户可能转为优先拉货 HGX、MGX 等机型,或布局自有 ASIC 基础建设。


发生机率次高的是悲观情境(worse case),估计整体 AI Server 出货量的年成长介于 20% 至 25% 间。TrendForce 集邦咨询表示,这项预估基于三大考量:首先,国际形势变化对 AI 芯片影响扩大;其次,英伟达 GB Rack 方案因设计较为复杂,出货大宗将落于 2025 年下半年,GB300 预计于相同时间点推出,因规格较高,对于整体 Server Rack 系统测试、验证期程也将拉长。最后则考量 DeepSeek 效应,可能导致客户降低对高阶 AI 方案的依赖。


乐观情境(bullish case)基于中美 AI 政策转趋积极,如美国的 Stargate 计划可望加速各业者布局 AI Server。此外,尽管 DeepSeek 可能影响高阶 GPU 采用,但美系 CSP 购置自家 ASIC AI server 的速度优于预期,加上预期 DeepSeek 效应有助扩大 AI 应用场景,进而带动 edge AI Server 发展。综上所述,2025 年 AI Server 出货的乐观预估为年增近 35%。


TrendForce 集邦咨询指出,在 DeepSeek 驱动下,CSP 业者预计将更积极发展成本较低的自有 ASIC 方案,并把重心从 AI 训练转往 AI 推理,预估将逐步推升 AI 推理服务器占比至接近 50%。未来 GPU 仍将支持各种 AI 算法发展,但持续发展大型算法的 CSP 业者和更重视成本考量的边缘企业客户将各有需求。

10. Anthropic 发布首份 AI 经济指数报告:软件工程师、作家成 AI 应用先锋

据 C114 报道,Anthropic 公司 2 月 10 日发布了首份经济指数(Economic Index)报告,软件工程师和作家率先拥抱 AI,并表明现阶段 AI 的定位并非替代者,而是协作工具。


人们普遍担忧人工智能会快速取代人类工作,但 Anthropic 的经济指数提供了新的数据,挑战了这一假设。


该报告基于数百万次与 Claude AI 模型交互,AI 主要被用作协作者,揭示了人工智能如何融入现实世界任务,并发现 AI 主要应用于软件开发和技术写作等领域,更多地用于增强而非自动化人类能力。


该研究利用名为 Clio 的系统分析了 Claude.ai 上约一百万次匿名对话,并根据美国劳工部维护的职业信息网络(ONET)数据库对对话进行分类,匹配每次对话与最能代表人工智能角色的 ONET 任务,进而分析人工智能在不同职业和任务中的应用情况。


数据显示,人工智能在“计算机和数学”类职业中的应用最为广泛,占比高达 37.2%,主要涉及软件修改、代码调试和网络故障排除等任务;“艺术、设计、体育、娱乐和媒体”类职业位居第二,占比 10.3%,主要用于写作和编辑;而需要大量体力劳动的职业,例如“农业、渔业和林业”类职业,人工智能的使用率最低,仅为 0.1%。


研究表明,人工智能的使用略微倾向于增强人类能力 (57%),而非自动化任务 (43%)。在大多数情况下,人工智能并非用于取代人类,而是与人类协作,例如验证工作、辅助学习新知识和技能,以及迭代任务等。

11.  OpenAI 将完成首款自研芯片设计:计划由台积电代工

据 C114 报道,OpenAI 正积极推进其减少对英伟达芯片依赖的计划,即将完成自家首款自研人工智能芯片。据最新消息,OpenAI 已决定将这款自研芯片交由全球领先的半导体制造商台积电进行“流片”测试。


这一步骤意味着,经过精心设计的芯片将被送往台积电工厂,进入试生产阶段。这不仅是对芯片设计的一次实战检验,更是 OpenAI 向大规模自主芯片生产迈出的关键一步。


OpenAI 规划着在 2026 年实现自研芯片在台积电的大规模生产。尽管每次流片测试的费用高达数千万美元,且通常需耗时约六个月。


然而,值得注意的是,首次流片测试并非万无一失。面对可能的技术挑战,OpenAI 已做好充分预案。一旦芯片在测试中出现问题,OpenAI 的工程师团队将迅速诊断问题所在,并着手进行必要的调整与优化,随后再次进行流片测试,直至达到预期效果。


这款自研芯片在 OpenAI 内部被视为一种重要的战略性工具。随着首款芯片的顺利投产,OpenAI 的工程师团队还将以此为契机,逐步开发出性能更强、功能更广泛的处理器系列,进一步巩固其在人工智能领域的领先地位。

12.  风险提示

AI 发展不及预期,算力需求不及预期,市场竞争风险。

本文节选自国盛证券研究所已于 2025 年 2 月 15 日发布的报告《国盛通信丨 Deep Seek 的启示:不容忽视的算力前端需求》,具体内容请详见相关报告。


【免责声明】市场有风险,投资需谨慎。本文不构成投资建议,用户应考虑本文中的任何意见、观点或结论是否符合其特定状况。据此投资,责任自负。

吉时通信
数据请求中
查看更多

推荐专栏

数据请求中
在 App 打开