DeepSeek模型利用PTX编程语言,以及工程能力上的创新变革等,使得其在具有更强的性能的同时,实现更低的成本,或加速推动AI应用与硬件的普及落地。将算力分为训练算力及推理算力两部分,我们大家都认为成本更低的推理算力有望推动应用的进一步增长,带动应用端繁荣度提升,AI能力边际扩张依然需要依赖更强的模型和强大的算力,中长期来看,DeepSeek在算法和架构上的创新给AI发展增加了一条新的道路,有望形成大模型从训练到推理端再到应用端的进一步繁荣共赢局面。
同时,应用端发展有望带动算力产业链加速发展,国产化进程有望加速。DeepSeek的推出,对推理侧成本带来非常大降低,将显著带来训练测迭代的加速,应用场景落地或将进一步加速,同时反推推理侧模型效率的逐步提升,从而带动通信行业算力相关方向的持续高景气,形成良性循环。同时,更强训练模型的未来需求将带动光模块产业链加快速度进行发展,在全球经济发展形势复杂化趋势下,核心器件光芯片等方向自主可控进程进一步加速,当前国产化GPU芯片及相关产业链较同类竞品差距逐步缩小,在具备一定的国产化进程加速基础上,推理端算力的快速地发展或将促使国产化器件的普及度进一步加速。
DeepSeek的不变:高端算力资源仍是必须,AIDC有望实现投入产出的良性循环:运营商作为央企,基本盘稳健,盈利能力、现金流资产不断改善、资产价值优势凸显,持续增加分红回馈股东,且基础业务具备持续增长性。当前三大运营商云业务持续高增长,在人工智能大背景下,此次DeepSeek开源模型推出后,我们大家都认为大模型的重心逐步从预训练转移到了后训练,推理端算力规模有望提升,对于硬件端的要求也有所降低,运营商对算力底座的投资有望与应用端的普及形成良性循环,资本开支的投入逐步转化为规模化提升的回报,协同运营商的通道优势,推动运营商等产业链云业务盈利能力的边际改善。
作为算力行业龙头,利用自身云资源池及硬件的突出能力带动AI应用的普及,同时,更强训练模型的未来需求将带动光模块及AIDC产业链加快速度进行发展,在全球经济发展形势复杂化趋势下,核心器件光芯片等方向自主可控进程或进一步加速。
AI应用发展没有到达预期的风险;国际经济发展形势复杂度逐步提升的风险;AI硬件发展速度没有到达预期的风险;AI产业链上下游短期波动的风险等。
大模型在AI行业中占据核心地位,是推动技术创新、拓展应用场景及提升行业效率的重要的条件。全世界内的领军企业持续推动大模型性能的提升,随着模型规模的不断扩张,其性能也实现了显著提升。然而,这种规模的扩大也相应地带来了训练和部署成本的飞速增加,成为制约大模型大范围的应用的瓶颈。
在机器学习领域,尤其是大型语言模型(LLMs)的应用场景中,模型性能的提升与模型规模、数据集的大小以及计算资源之间有着紧密的关联,这一关系通常被描述为“规模定律”(Scaling Law)。根据规模定律,模型的性能会随着模型规模的指数级增加而实现线性提升。目前,国际上主流的大模型,诸如OpenAI的GPT系列、Anthropic的Claude以及谷歌的Gemini等,其最新版本的规模均已突破千亿参数大关。尽管这些模型在性能上展现出了卓越的表现,但对于众多公司和开发者而言,其高昂的硬件资源使用成本、计算时间等依然构成了巨大的挑战。长期以来,大算力训练一直是基座模型厂商用于融资与构建竞争壁垒的重要手段。
从技术层面来看,GPU等硬件设施效率的提升以及算法的优化等方式,均有望带动大模型成本的显著下降。在全球GPU短缺以及美国限制政策的双重压力下,我国的人工智能公司DeepSeek通过算法优化的创新路径,逐步降低了训练成本,为大模型的大规模应用提供了前所未有的可能性。DeepSeek在1月20日正式对外发布了其R1模型,并同步开源了模型权重。在第三方的基准测试中,DeepSeek-R1的表现优于OpenAI、Meta和Anthropic等美国领先的人工智能公司。在AIME2024数学基准测试中,DeepSeek-R1的成功率高达79.8%,成功超越了OpenAI的o1推理模型。在标准化编码测试中,DeepSeek-R1更是展现出了“专家级”的性能,在Codeforces上获得了2029Elo的评级,并超越了96.3%的人类竞争对手。同时,DeepSeek-R1真正令人瞩目的地方并不仅在于其卓越的性能,也在于其极低的成本。它打破了硅谷传统的“堆算力、拼资本”的发展路径,仅用557.6万美元和2048块英伟达H800 GPU便完成了性能对标GPT-4o的模型训练,成本仅为OpenAI同类模型的十分之一,推理成本更是低至每百万Token 0.14美元,而OpenAI的推理成本则为7.5美元。
与专有模型不同,DeepSeek-R1的代码和训练方法均在MIT许可下完全开源,这在某种程度上预示着任何人都可以无限制地获取、使用和修改该模型。全球开发者对DeepSeek-R1的贡献代码使其推理效率每小时提升0.3%,这一开放性的举措极大地激发了业界的创新活力。DeepSeek-R1在芯片资源利用、算法复杂性和推理速度上实现了重大突破,为AI行业的发展树立了新的标杆。
1)首先是算法层次的创新。他们采用了新的 MoE 架构,使用了共享专家和大量细粒度路由专家的架构。通过将通用知识压缩到共享专家中,能减轻路由专家的参数冗余,提高参数效率;在保持参数总量不变的前提下,划分更多的细粒度路由专家,通过灵活地组合路由专家,有助于更准确和针对性的进行知识表达。同时,通过负载均衡的算法设计,有效地缓解了传统 MoE 模型因负载不均衡带来训练效率低下的问题。
2)其次在系统软件层次的创新。DeepSeek采用了大量精细化的系统工程优化。例如,在并行策略方面,采用双向流水的并行机制,通过精细的排布,挖掘了计算和通信的重叠,有效的降低了流水并行带来的气泡影响;在计算方面,采用 FP8 等混合精度进行计算,降低计算复杂度;在通信方面,采用低精度通信策略以及 token 路由控制等机制大大降低通信开销。
DeepSeek-R1的成功或许证明,未来的AI竞赛将不再单纯依赖于芯片的纳米级较量,而是算法效率、生态活力与政策弹性的多维度博弈,AI行业的发展将呈现出更加多元化和复杂化的变化趋势可期。
DeepSeek-R1以超越美国顶尖模型的性能、更低的研发成本和较弱的芯片性能要求,引发了美国对其AI全球领头羊的担忧,同时也对科技公司在构建AI模型和数据中心上的巨额投入提出了质疑。在DeepSeek的冲击下,国内外大模型厂商紧急上线新模型,采取降价、免费等措施以证明自身的一马当先的优势。同时,亚马逊、英伟达、微软等海外AI巨头纷纷上线部署用户访问DeepSeek-R1模型。2月1日,OpenAI发布全新推理模型o3-mini并首次向免费用户开放。这是OpenAI推理模型系列中最新、成本效益最高的模型。在定价方面,o3-mini每百万token的输入(缓存未命中)/输出价格分别为1.10美元/4.40美元,比完整版o1便宜93%。不过,o3-mini的性价比或依然不及DeepSeek。作为对比,DeepSeek的API提供的R1模型,每百万token的输入(缓存未命中)/输出价格仅分别为0.55美元/2.19美元。在o3-mini推出后,OpenAI CEO表示,中国竞争对手DeepSeek的崛起削弱了OpenAI的技术一马当先的优势,并就开源与闭源的问题回应称,OpenAI过去公司曾经开源部分模型,但主要是采用闭源的开发模式,未来将重新制定开源战略。与此同时,国产大模型的降价浪潮仍在持续。1月30日,阿里云发布百炼qwen-max系列模型调整通知,qwen-max、qwen-max-2025-01-25、qwen-max-latest三款模型输入输出价格调整,qwen-max batch和cache同步降价,AI大模型行业竞争加剧。
DeepSeek的成本突破不仅是大模型训练的从“硬件驱动”向“算法驱动”的范式拓展,更为普惠化应用打开了新空间,反映AI技术向实用化、低成本化演进。行业对算力的依赖相较之前发生了“结构性”而非“总量性”变化:DeepSeek的技术进步短期内或许能够局部缓解算力压力,但由于算法与算力的“螺旋上升”关系、应用场景的爆发式扩展以及数据增长的不可逆等特性,我们大家都认为算力资源需求会从预训练端逐渐转移到推理端,DeepSeek的兴起不会削弱高端芯片需求,而会促使大模型发展进入“算法进步→模型复杂化→硬件升级”的正向循环。
大模型成本优化与算力需求之间相互成就,高资源使用效率反而可能会增加算力的总消耗量。DeepSeek通过降低训练成本,提高训练效率,看似减少算力需求,但同时,大模型成本缩减意味着降低了企业的训练与推理门槛,即每单位成本所能提供的训练和推理服务更多了,算力效率提升有望激活更广泛的用户与应用场景,从而引发对更大参数以及更复杂的大模型迭代需求。算法优化(如模型压缩、蒸馏)确实能提升单次任务效率,但AI能力的边界扩展(如多模态、复杂推理、通用AI)仍依赖更大规模模型和更复杂计算。这可能会对均衡下的算力需求产生正面影响,整体算力需求不会减少而是更加旺盛,从而形成对硬件需求的新一轮推升,即步入“算法进步→模型复杂化→硬件升级”的正循环。
微软首席执行官引用了“杰文斯悖论”来解释这一现象:Jevons在《煤炭问题》中发现,随着蒸汽机效率的提升,煤炭消耗量不降反增。其核心观点为:技术进步提高了资源使用效率,效率提高降低了资源使用成本,成本下降刺激了资源需求的增长,需求增长可能超过效率提升带来的节约,最后导致资源总消耗增加。在算力日益成为数字化的经济“水电煤”的今天,DeepSeek的技术方向与开源定位,恰恰是算力民主化革命的关键参与者。我们大家都认为,大模型成本优化与算力需求并不是直接的此长彼消关系,而是互相搭台、相互成就,高资源使用效率反而可能增加算力的总消耗量。定价的持续走低有望带来更快的商业化落地,进而会衍生出更多的微调及推理等需求,将逐步盘活全球AI应用及算力发展。
(三)DeepSeek带来的变与不变:运营商、光模块等板块高景气有望延续
1)强化国产算力产业链:为中国AI发展带来新机遇,为中美科技竞争增添变数。DeepSeek-R1/V3支持华为昇腾平台及MindIE引擎,自研推理加速引擎使硅基流动与华为云昇腾服务上的模型效果媲美高端GPU,同时减少相关成本。这一突破为AI生态提供自主多元化方案,助力我国本土芯片厂商商业化落地,促进高效能AI的普及。
2)提升中国AI国际影响力:DeepSeek-R1的开源实践标志着开源模式对闭源模式的一次重要胜利,这一开源模式对社区的贡献能够迅速转化为整个开源社区的繁荣。中小企业和个人开发者等长尾市场原本因成本限制无法参与的领域(如小规模模型微调、实验性研究)将被激活,形成分散的算力需求增量,产业或将迎来结构性变化,有望为AI技术的多元化创新增添更多可能性。同时,AI加速走向千行百业,智能驾驶、机器人、元宇宙等新兴领域对实时计算和低延迟的高要求,将持续助推高算力需求。DeepSeek迅速吸引了全球开发者瞩目,曾短时间之内即在苹果中国及美国应用商店免费应用下载榜超越ChatGPT登顶,彰显了中国AI技术以更开放姿态融入全球。未来创新将聚焦于效率、开放性和生产力转化,DeepSeek或成全球AI科技发展转折点。
虽然DeepSeek的推出,对降低推理侧成本带来大幅度降低,但我们大家都认为推理侧的成本降低,将显著带来训练测迭代的加速,由于推理侧成本的降低,应用场景落地或将进一步加速,推动推理侧模型效率的逐步提升,从而带动通信行业相关方向的持续性高景气。我们维持此前对通信细分子领域运营商、光芯片、光模块的推荐方向,认为DeepSeek的推出,运营商作为我国最大的流量管道,具备数据优势及接口优势,AI应用的普及将持续推进,同时,更强训练模型的未来需求将带动光模块产业链加快速度进行发展,在全球经济发展形势复杂化趋势下,核心器件光芯片等方向自主可控进程或进一步加速。
国央企改革深化,AI新动能赋能新质生产力。国资国企是我国新型算力基础设施建设的重要主体,在我国数字化的经济发展中发挥着“底座”作用。二十届三中全会提出推动国有资本和国有企业做强做优做大,向前瞻性战略性新兴起的产业集中。立足当下,我们国家科技发展的大时代已然而至,国央企推动我们国家经济新旧动能转换有望超预期。展望未来,受益算网基建新变革带来新增量,运营商AI+产业链发挥“链长”作用赋能新质生产力,运营商作为国央企盈利能力逐步提升实现更高质量发展,有望推动我们国家数字化的经济AI大发展超预期。
运营商资本开支结构向算网倾斜,持续完善AI智算能力布局。中国移动2024上半年资本开支为640亿元,资本开支占主要经营业务收入比为11.71%。公司持续构建技术和规模领先的全国性算力网络,通用算力规模达8.2 EFLOPS(FP32),智能算力规模达19.6 EFLOPS(FP16)。2023年公司各项资本开支合计约1,803亿元,预计2024年资本开支约1,730亿元,大多数都用在推进连接感知领先、算力发展提速、能力集约增效和基础拓展布局,和支撑CHBN业务发展等方面。中国联通2024上半年资本开支为239亿元/-13.4%,投资重点由稳基础的联网通信业务转向高增长的算网数智业务。公司2023年资本开支为739亿元,网络投资显现拐点,着力强化网业协同,突破“算网一体”技术能力,对全国海量算力资源实现统一运营,连接“东数西算”枢纽节点;推动5G与边缘云深层次地融合,实现全国云池毫秒级智能调度;基于大规模数据治理和服务实践,打造超2万节点的数据计算引擎,具备万亿级实时解决能力,构建“1+1+M”大模型体系。中国电信2024上半年资本开支为472亿元,其中移动网投资186亿元,产业数字化投资161亿元。2023年累计完成资本开支988亿元,其中移动网投资348亿元,产业数字化投资355亿元。公司打造云智、训推一体的算力基础设施,在京津冀、长三角建成国内领先的全液冷万卡池,已承载万亿参数大模型训练任务;在31省部署推理池,智能算力达到 21EFLOPS,推动数据中心全面向AIDC升级。运营商资本开支实现有效控制,全覆盖智算能力布局不断完善。
从三大运营商资本开支角度分析,智能算力成为建设重点。中国移动2024年预计资本开支约1730亿元,其中连接投入874亿元,占比50.52%/-9.93pct,算力投入475亿元/+5.77pct,能力投入163亿元/+1.99pct,基础投资218亿元/+2.17pct,其中算力投入增速最快。中国联通持续完善云网边一体化布局,建设上海临港、呼和浩特等万卡智算中心,全网智算算力达到10EFLOPS;布局20多个大型算力中心园区,全方面覆盖“东数西算”枢纽节点。加快建设“新八纵八横”国家骨干网,在算力中心间部署超高速互联通道,打造一张高通量、高性能、高智能的智能算力智联网络。中国电信2024年将重点聚焦战新业务,在产业数字化方面的投资占比预计为38.5%,比2023年提升2.5%,将在云、算力相关投资180亿元,全面打造灵活、弹性、绿色的AIDC,智算能力提升超10EFLOPS。
国资委支持中央企业未来的发展人工智能,政策面推动运营商发展智能算力。2024年2月,国务院国资委召开“扎实推动AI赋能产业焕新”中央企业人工智能专题推进会,强调加快推进人工智能发展,是国资央企发挥功能使命,抢抓战略机遇,培育新质生产力,推进高水平发展的必然要求。中央企业要主动拥抱人工智能带来的深刻变革,把加快发展新一代人工智能摆在更突出的位置。2024年7月,国新办举行“推动高水平发展”系列主题新闻发布会,国务院国资委提出未来五年,中央企业预计安排大规模设备更新改造总投资超3万亿元,更新部署一批高技术、高效率、高可靠性的先进设备,中央企业要率先行动,推动大规模设备更新重点任务落实落地。2024年10月,国务院国资委《在推进新型工业化中彰显国资央企使命担当》中提到,中央企业是我国新型基础设施建设的重要主体,在我国数字化的经济发展中发挥着“底座”作用。中央企业智能算力资源是我国算力网络的重要组成部分。下一步将适度超前建设一批智能算力中心,强化人工智能算力供给;同时构建更完善的网络安全保障体系,提升数据安全治理能力,筑牢数字化的经济安全屏障。
中国电信:天翼云自研 “息壤”智算平成国产算力与Deep-Seek-R1/V3系列大模型的深度适配优化,成为国内首家实现DeepSeek模型全栈国产化推理服务落地的运营商级云平台;
中国移动:移动云全面上线DeepSeek,全版本覆盖、全尺寸适配、全功能畅用。现已全面兼容DeepSeek所有主流版本,灵活应对多样化业务场景需求;
中国联通:联通云与DeepSeek实现多场景深度对接。联通云已基于“星罗”平台实现多规格Deep-Seek-R1模型适配,并在全国270多个骨干云池预部署,接入多种产品场景。
当前三大运营商云业务持续高增长,但在相比来说较高的基数下增速同比有所放缓,在人工智能大背景下,互联网厂商针对性的高投入以及高研发大幅度的提高了大模型训练端的发展激烈程度,此次DeepSeek开源模型推出后,我们大家都认为大模型的重心逐步从预训练转移到了后训练,推理端算力规模有望提升,对于硬件端的要求也有所降低,运营商对算力底座的投资有望与应用端的普及形成良性循环,资本开支的投入逐步转化为规模化提升的回报,协同运营商的通道优势,形成AI应用端的快速发展以及市占率的提升。
新兴业务收入保持两位数增长,AI下游应用收入有望进一步加大。根据工信部数据,截止2024全年,运营商完成包括云计算、大数据、移动物联网、数据中心等在内的新兴业务收入4348亿元,比上年增长10.6%,在电信业务收入中占比由上年的21.6%提升至25%,拉动电信业务收入增长2.5pct。其中,云计算、大数据、移动物联网业务收入比上年分别增长13.2%、69.2%和13.3%。伴随 “数字中国”AI+建设持续推进、AI+应用方案政策的提出,运营商有望赶上中国数字化的经济信息发展变革的大时代,市场化程度持续优化,迎来行业景气度的复苏,经营业绩有望更上一层楼。我们大家都认为随着大模型推动AI产业趋势逐步加强,国内云厂商对AI相关投入有望继续提升,有望带动AIDC增速进一步回暖。
未来5年数通市场的增长驱动力大多数来源于400G以上高速率光模块的需求。全球云计算服务提供商对计算能力和带宽需求的持续增长,以及他们在服务器、交换机和光模块等硬件设备上的资本支出的增加,将推动光模块产品向更高速率的800G、1.6T甚至更高端产品的迭代升级。依照我们估算,全球光模块400G客户大多分布在于亚马逊(约45%)和谷歌(约25%)、800G主要集中于英伟达(约50%)、谷歌(约30%)和Meta(约20%)等,2025年1.6T光模块的主要需求方预计将是英伟达和谷歌。在GTC 2024大会上,英伟达发布了其最新产品GB200,其服务器与交换机端口速率也实现了翻倍提升,更有望引领AI光模块从现有的800G向更高性能的1.6T升级。此外,英伟达明确了2026年将使用1.6T网卡,对应3.2T光模块需求,明确了光模块升级迭代的节奏。LightCounting预测,到2029年,400G+市场预计将以28%以上的复合年增长率(每年约16亿美元以上)扩张,达125亿美元。其中800G和1.6T产品的增长尤为强劲,这两个产品共占400G+市场的一半以上。与此同时,200G以下速率光模块产品的市场规模预计将以每年约10%的速度缩减。光模块头部厂商产品的高度可靠性、领先的研发实力及交付能力等优势将进一步凸显,行业集中度有望进一步提升。因此,那些能够与客户同步研发、快速融入客户供应链,并能提前把握客户的真实需求的光模块厂商,将有机会在产品更新换代时抢先获利。
高速光模块的应用导致网络设备功耗大幅度的增加,硅光等新技术加固护城河。在以400G和800G光模块为典型配置的51.2T和100T交换机中,光模块加驱动SerDes的功耗占比在40~45%。预计到2030年,在400G+SerDes和6.4T光模块代际时,OSFP光模块功耗、SerDes驱动距离将成为很难突破的瓶颈。据统计2010-2022年全球数通光模块的整体功耗提升了26倍,2024年800G光模块正式放量后该问题更为突出,这种能耗增长对智算中心的经营成本构成了重大压力,降功耗成为光模块技术发展的核心诉求之一。硅光技术利用现有的CMOS工艺将光器件与电器件开发和集成到同一个作为光学介质的硅基衬底上,令光电处理深层次地融合,较传统分立器件更能发扬“光”(高速率、低功耗)与“电”(大规模、高精度)的各自优势。目前由于良率和损耗问题,硅光模块方案的整体优势尚不明显,在功耗、速率、成本、体积四个方面的突破是未来新技术发展的重点方向,也是未来光模块厂商竞争力的体现。根据LightCounting的预测,使用基于SiP的光模块市场占有率将从2022年的24%增加到2028年的44%,硅光有望凭借硅基产业链的工艺、规模和成本优势迎来产业机遇。
LPO和CPO技术在功耗及成本上也各具明显优势,或成未来发展趋势之一。LPO(线性驱动)技术通过移除DSP降低了光模块的成本和功耗,以400G光模块为例,其7nm DSP的功耗约4W,占模块总功耗的一半,而BOM成本则占20-40%,无DSP的LPO在功耗和成本上更具优势。然而,由于DSP的功能不能完全由TIA和驱动芯片替代,LPO可能会增加误码率,进而缩短传输距离。因此LPO更适合短距离应用,如数据中心内部服务器与交换机的连接,以及机柜间的连接。而在CPO(光电共封装)技术中,光学组件被直接封装在交换机芯片旁边,进一步缩短了光信号输入和运算单元之间的电学互连长度,在减少信号损耗问题的同时实现了更低的功耗,还有助于缩小设备体积,使得数据中心的布局更加紧凑。LightCounting统计,CPO出货预计将从800G和1.6T端口开始,并于2024至2025年开始商用,2026至2027年开始规模上量,CPO端口在2027年800G和1.6T出货总数中占比预计达约30%。
在光电子器件方面,随着算力资源的广泛部署及其网络基础设施建设的加速推进,MTP、MPO这类密集连接的典型产品,以其独特的高密度设计明显降低了布线成本,同时增强了系统的可靠性和可维护性,为数据中心的长期发展提供了有力支持,需求展现出迅速增加的态势。此外,传输速率的显著提升也驱动了光有源器件光口向多通道方向的加快速度进行发展,进而带动了市场对多通道密集连接器件产品的需求量开始上涨。在此背景下,研发、制造MTP、MPO等高密度光网络关键无源器件的企业将显著受益。比如太辰光是全球最大的密集连接产品制造商之一,其中MT插芯及部分无源光器件产品的技术水平在细分行业处于领头羊,公司凭借产品的高性价比优势,有望逐步提升在产业链的市场份额。
目前在数据中心和算力点内部,美国已完成400G光口向800G光口的演进,正在向1.2T、1.6T推进。我国目前仍然以400G光口为主,预计明年800G光口成为主流。因此在数据中心、算力点和算力集群之间迫切地需要400G/800G光传送设备做承载和传输。比如德科立在长距离光电子器件产品上不断推陈出新,在宽谱放大器、小型化可插拔放大器、高速率长距离相干和非相干光收发模块等领域保持较强的技术优势,有望随数据中心相互连通的建设升级而迎来更加广阔的发展空间。
TSV(硅通孔)技术是硅光芯片封装中的关键技术,其通过在硅片中创建垂直通道实现光芯片与电芯片间的高效电互连,促进了高密度集成和3D堆叠,增强了光电混合集成的性能和可靠性,对提升硅光芯片封装技术至关重要。晶方科技作为全球晶圆级芯片尺寸封装服务的主要技术引领者,拥有包括TSV在内的多样化先进封装技术,具备8英寸、12英寸晶圆级芯片尺寸封装技术规模量产封装线,有望在提升高端光模块性能方面发挥关键推动作用。
我们认为DeepSeek对于光模块行业并非利空而是利好:首先,在推理端算力增加的情况下,低速率光模块出货量具备需求端承载基础,200G、400G光模块的部署较此前预期有所增长;其次,在需求端强刺激下,训练侧算力模型有望持续迭代,从而反哺应用端日渐增长的需求,对高端光模块的刺激有望逐步提升。综合看来,我们大家都认为光模块板块虽然经历了短期的回调,但整体仍旧处于高景气周期内,且对光模块的需求有望更进一步,即中低速率光模块的使用量增加,高速率光模块的需求不变,但迭代周期在应用端强刺激的基础上有望进一步缩减,整体行业规模及景气度有望再上新台阶。
光芯片是光模块核心器件,应用场景较广。光芯片分为激光器芯片及探测器芯片,当前AI相关光模块内光芯片主要以VCSEL及EML芯片为主,高速率光芯片主要以VCSEL芯片为主,该款芯片具备线宽窄,功耗低,调制速率高,耦合效率高,传输距离短等特点,主要使用在于500米内短距离传输,集中在数据中心机柜内布传输,消费电子等领域;EML芯片则由于其调制频率高,稳定性高,传输距离长等特性,大范围的应用于长距离传输,高速率远距离的电信骨干网,城域网和DCI等领域,但其具备成本比较高的特性,虽能部署于短距离传输市场中,但不具备性价比优势。
光芯片市场规模持续提升,推理侧算力部署加速及国产化进程加速有望直接带动行业增长。随着云计算、大数据、人工智能等技术的加快速度进行发展,对高速、高效、低能耗的数据传输需求日渐增长,光芯片的市场需求也随之增加,推动全球光芯片市场规模持续扩大。根据中商产业研究院发布的《2024-2029年全球及中国光芯片行业发展的新趋势与投资格局研究报告》显示,2023年全球光芯片市场规模约27.8亿美元,较上年增长14.4%。中商产业研究院预测,2024年全球光芯片市场规模将达到31.7亿美元。随着国产替代的加速推进,中国光芯片市场规模持续增长,并展现出强劲的发展势头。中商产业研究院发布的《2024-2029年全球及中国光芯片行业发展的新趋势与投资格局研究报告》显示,2023年中国光芯片市场规模约为137.62亿元,较上年增长10.24%。中商产业研究院预测,2024年中国光芯片市场规模将增长至151.56亿元。从国产化率来看,国内相关企业仅在2.5G和10G光芯片领域实现核心技术的掌握,2.5G及以下速率光芯片国产化率超过90%;10G光芯片国产化率约60%;25Gbs及以上的光芯片国产化率低,仅有4%。预计随推理侧算力部署的逐步增多,以及后训练算力的规模提升,相比来说较低速率光芯片市场空间将逐步提升,在我国光芯片相关企业有望受益。
中国数字化的经济规模稳步增长,核心产业贡献显著。数字化的经济已成为全世界经济发展的强大引擎。在全球版图上,美国、中国和德国以其卓越的数字化的经济实力,形成三足鼎立的领导格局。受益于大力推动产业数字化转型的国家战略,以及海量数据资源优势,中国数字化的经济规模增速显著超越美国和德国。2019-2023年,中国数字化的经济年复合增长率达到约11.9%,整体规模在2023年实现约56万亿人民币,同比增长9.8%,占GDP比重约为44%,其中以云计算、大数据、物联网等为代表的数字技术为主要增长点。
中国人工智能领域投资活跃,硬件领域占总投资的60%以上。AI产业作为数字化的经济生态中的技术推进器和创新加速器,受到全球企业持续性的技术资金加码。Frost&Sullivan统计,2023年全球AI市场总投资额达1835亿美元,同比增长38.5%,2023-2028年全球AI市场规模将保持28%的年复合增长率,预计到2028年总额将超过6000亿美元。中国人工智能领域技术投资活跃,投资额在2023年突破193亿美元,同比增长48.2%,创下历史新高,投融资主要集中在生活服务,智慧医疗,智能制造和汽车物流领域。2023年中国人工智能市场总投资额突破190亿美元,占全球总量的10.5%,2019-2023年的年复合增长率为43.4%。全球AI领域的投资预计将重点聚焦在四个关键业务板块:AI模型开发企业、AI基础设施提供商、AI应用软件开发商,以及企业终端用户。从技术层面进行分析,中国市场的投资大多分布在在硬件领域,其占市场总规模的60%以上,其次投资主要流向软件领域,投资增速位于技术市场首位。
自2020年起,全球生成式人工智能应用市场规模经历了显著增长。2022年被视为生成式AI技术的突破性元年,ChatGPT的推出预示着强人工智能拐点的到来,激发了新一波的人工智能革新。至2023年,全球该市场规模已膨胀至约675亿美元,实现了70%的同比大幅增长,并预测将于2028年跃升至5160亿美元,期间年均复合增长率预计达到约50.2%。在此市场构成中,硬件部分占据最大份额,而基于生成式AI的商业服务则展现出最快的增长速度。
中国生成式AI市场得益于上游技术投资的持续增加与下游商业化应用的不断落地,正展现出强大的增长潜力和市场活力。尽管中国的大模型产业相较于西方企业起步较晚,但从2023年起,该领域也步入了快速发展阶段。国内众多高科技企业、高等院校、科研机构及创业团队纷纷推出自主研发的大模型,大模型市场呈现出“百家争鸣”的热烈态势。当前,领军企业的大模型技术水平已与国际平均水平相持平,预计至2028年,中国应用端市场规模将突破3800亿元人民币。展望未来,随着大模型技术的不断进步,其发展趋势将趋向于轻量化小模型、垂直化应用及多功能化拓展。
(二)政策支撑高性能智算发展,DeepSeek推动AIDC上架率及需求双增
高性能智算资源是未来大模型产业发展的重要基石。全球头部大模型企业引领和推动技术的革新和落地,商业化应用逐步从文本向图像、音频和视频等领域推进,从而催生了对高性能智能算力的需求,全球主要国家相继出台扶持政策,从资金、基础建设、数据供给、人才、下游应用等多方面谋篇布局。自2012年后,驱动AI的底层机器学习技术计算量呈指数级增长,根据OpenAI论文,深度学习前期,算力翻倍时间为21.3个月,深度学习时期,算力翻倍时间为5.7个月,大模型时期,AI训练任务所用的算力每3.43个月就会翻倍,远超摩尔定律(晶体管每18个月翻一倍)带来的算力提升速度。根据OpenAI数据,训练GPT-3175B的模型,需要的算力高达3640PF-days(假如每秒做一千万亿次浮点运算,需要计算3640天)。当前大模型的参数量级已达到数千亿参数的量级规模,新增算力中智能算力成为增长新引擎。根据IDC与浪潮信息联合发布的《2022-2023中国人工智能计算力发展评估报告》,未来5年中国智能算力规模年复合增长率将达到52.3%,通用算力规模年复合增长率为18.5%。预计到2026年中国智能算力将达到145EFLOPS,占比将达到36.7%,渗透率将显著提升,主要用于互联网领域大模型的训练和推理,其占比超过五成。
在智能算力产业的上游,尽管中国已在基础设施和部分核心设备领域实现了国产化替代,但在人工智能芯片领域,现阶段市场主导权仍由海外厂商掌握,这对我国智能算力供应的稳定性构成潜在隐患。作为算力产业的基础构成部分,人工智能芯片对于支撑智能算法及应用所需的计算能力至关重要,其设计与制造水平直接关联到中下游智算资源的有效供给与利用,掌握自主可控的人工智能芯片技术是保障智算产业持续健康发展的基石。鉴于美国对中国半导体行业的监管不断强化,加之全球经济增速放缓,随着芯片产业链结构的持续优化,如芯片设计领域的快速增长及封装环节占比的逐渐降低,预计中国芯片市场将在未来恢复增长,至2028年市场规模有望达到1.5万亿元人民币,其中人工智能芯片市场规模预计将达2582亿元人民币。
人工智能服务器作为数据中心的核心硬件设备及算力的重要支撑载体,2023年中国市场规模达到约692亿人民币,其中GPU加速服务器占比超过90%,这一显著增长反映了全球AI企业正加速布局AI及智算业务资源。在这一市场中,浪潮、新华三等企业在2023年合计提供了超过50%的人工智能服务器,特别是基于GPU、ASIC等加速芯片的AI服务器需求增长最为明显。展望未来,随着AI应用的日益成熟,市场对人工智能服务器的需求将持续扩大。
在智能算力产业的中游环节,数据中心为智算资源供给方搭建和运维物理平台,并为其提供海量的数据存储,高速的网络传输和实时处理服务,为配合高性能智算资源的供给,传统数据中心在架构、性能、可扩展性和安全性等方面都进行了升级改造。2023年,我国政府印发《数字中国建设整体布局规划》,明确提出要夯实数字基础设施和数据资源体系,预计未来我国数据中心机架数量将持续增长,在2025年达到1400万台。三大电信运营商作为国内数据中心建设的主导力量,依托其在政企市场的深厚渠道优势,正积极整合其在互联网数据中心和网络资源方面的领先优势,加速布局数字基础设施资源以满足日益增长的数据处理和存储需求。云服务商是目前智算市场上的主要智算资源供给方,凭借其自身在云计算方面全面的技术能力和完善的产品矩阵,为下游客户提供算力资源和算法增值服务。2023年中国云计算市场规模超6000亿人民币,其中公有云服务占比75.4%。随着AI技术革新和未来大模型的应用落地,我国云服务市场即将开始新一轮增长,预计到2027年市场规模将达到21404亿人民币。
在智能算力产业的下游环节,互联网一直处于大模型训练和推理领域的第一梯队,占据每年人工智能加速服务器市场的半壁江山,随着垂直行业大模型的逐步渗透和商业化落地,金融、能源、交通运输、教育、政府和智能制造等板块对智算资源的需求将逐渐凸显。
总结来看,中国智算产业的发展受到以下三点关键因素的驱动:1)政策支持:我国通过发布《十四五大数据产业高质量发展规划》等政策文件,对智能算力产业进行了宏观规划,并启动了“东数西算”工程,以促进智算中心建设和大模型研发,满足市场需求。地方政府也积极出台政策,推进智算基础设施建设,提供普惠算力服务,降低中小企业和个人使用算力的门槛;2)AI下游应用需求量开始上涨:人工智能技术在金融、电信、工业制造等多个领域的应用不断深化,推动产业智能化和数字化转型,同时在元宇宙、人形机器人等新兴领域的需求不断涌现,带动智能算力需求激增;3)硬件升级需求:算力技术迭代创新推动了硬件的升级,国内算力基础设施建设蓄势待发。
我们认为DeepSeek的部署,有望提升AIDC的现有机房上架率,同时刺激新机房的建设需求。我们大家可以发现DeepSeek的推出,对于算力的需求并非缩减而是持续增加,当前算力规模并不足以支撑DeepSeek全时间段大规模运行,算力的强需求将带动现有AIDC的上架率提升,以及新机房建设需求也成为应用端发展的确定性方向。
运营商盈利能力、现金流资产不断改善、资产价值优势凸显,持续增加分红回馈股东,相对历史估值和国外水平,通信运营商均处于估值低位。总体来说,运营商业绩持续增长或超预期,5G“收获期”大有可为。当前运营商云业务发展如火如荼,DeepSeek对于成本端的降低有望协同运营商云业务部署以及运营商的海量数据资产,推动运营商第二曲线的快速增长。
AIGC引领新一轮科技革命,DeepSeek对于成本端的降低或将推动应用端的繁荣,继而反哺推理侧模型的快速迭代,推动应用端的逐步发展。光模块100G/200G→400G→800G→1/6T迭代速率持续提升,带来产品量价齐升有望延续,带来业绩高增持续可期。同时国内的算力部署有望推动国内光模块产业链景气度提升,带来较强的规模效应。
DeepSeek对于成本端及训练精度的降低或将使得推理侧对光芯片的技术需求边际改变,国产光芯片在推理侧算力部署中具备成本优势且技术可靠性较强,产业链渗透率有望跟随推理侧算力部署的增加而有所上升,在复杂国际形势下,国产光芯片在推理侧部署的可靠性及成本优势有望将逐步提升自身在采购链条中的话语权和份额。
DeepSeek的推出,对于算力的需求并非缩减而是持续增加,当前算力规模并不足以支撑DeepSeek全时间段大规模运行,算力的强需求将带动现有AIDC的上架率提升,以及新机房建设需求也成为应用端发展的确定性方向。
AI应用发展没有到达预期的风险:当前AI应用正在加快速度进行发展,行业正处于全面拥抱初期,若当前AI应用发展没有到达预期,则有可能降低应用推广速度,从而使得硬件发展及软件发展脚步降低;
国际经济发展形势复杂度逐步提升的风险:当前国际形势较为复杂,全球各地地理政治学博弈较大,某些特定的程度上影响了经济的逐步发展,若国际经济发展形势复杂度逐步提升,则有可能增加出口占比较大的公司的不确定性;
AI硬件发展速度没有到达预期的风险:虽然DeepSeek算法创新,但算法的创新并不能代替硬件的迭代,若AI硬件发展没有到达预期,则人工智能发展可能迎来瓶颈;
AI产业链上下游短期波动的风险:在DeepSeek算法及模型开源的影响下,应用及AI硬件需求度均有所提升,短期内可能对时效性要求比较高,促使产业扩大生产规模,由于DeepSeek带来的产业格局变化,新生的推理侧及应用相关企业较多,需求提升后上下游产能准备可能某些特定的程度上没有到达预期,造成产业链上下游短期波动风险。
本文摘自:中国银河证券2024年2月21日发布的研究报告《【中国银河证券】DeepSeek冲击波:通信算力降本增效,DeepSeek变与不变》
评级标准为报告发布日后的6到12个月行业指数(或公司股票价格)相对市场表现,其中:A股市场以沪深300指数为基准,新三板市场以三板成指(针对协议转让标的)或三板做市指数(针对做市转让标的)为基准,北交所市场以北证50指数为基准,香港市场以恒生指数为基准。