Google产业链观点更新

发布日期: 2025-12-12 作者: 乐鱼手机版登录入口官网

  各型号TPU出货量预测: 谷歌各型号TPU出货量呈增长趋势,2025年整体出货量预计300万颗左右,其中V5 180万颗、V6 120万颗;2026年出货量大概率超400万颗,大多数来源于V6 220万颗、V7 180万颗;2027年将推出V8,届时V8 330万颗成为出货主力,V7 200万颗,整体出货量超500万颗。其中,V6对应“魔鬼鱼”,V7对应“斑马鱼”。

  外卖芯片需求量开始上涨及客户类型: 谷歌外卖芯片比例持续提升,2025年外卖芯片出货量预计超50万颗,2026年将超100万颗。推动需求量开始上涨的客户包括OpenAI、Meta、苹果、XAI等大厂,以及欧洲多家小型客户(如1万颗、2万颗的采购量),这些客户的采购大幅度的提高了谷歌芯片外销数量。

  客户采购TPU的核心原因: 客户采购谷歌TPU主要有两大原因,一是谷歌TPU经过多代迭代已成熟,客户可利用谷歌芯片学习其架构、效率、功耗及成本控制等方面的经验;二是客户希望降低对英伟达方案的依赖,在英伟达之外寻找替代方案以实现采购和架构多样化。因此,在自身芯片成熟前,客户将谷歌TPU作为过渡方案。

  TPU的适配性与软件优化: TPU并非通用芯片,切换使用会有迁移成本,尤其是将现有英伟达上的大模型迁移至TPU的工作量大且存在运行不确定性,因此客户更多将TPU用于偏推理性的模型,因谷歌芯片在推理方面更具优势。谷歌TPU硬件设计固定,无法修改硬件适配客户模型,只能在软件层面提升对不同模型的适配性,通过优化软件栈来运行不同模型,同时其在单位功耗的算力成本上相比GPU更有优势,能为用户带来价值。

  具体客户的外卖芯片出货量: 2025年外卖芯片的50万颗中,OpenAI 10万颗、Meta 10万颗、苹果10万颗、XAI 10万颗,剩余约10万颗来自欧洲小型客户(如多家云厂商的1万颗、2万颗采购);2026年100万颗的出货计划中,Anthropic 40万颗、苹果20万颗,剩余约40万颗将由OpenAI、XAI等客户贡献(具体数量未统计)。

  与谷歌的分工合作: 博通与谷歌在芯片设计中分工明确,谷歌负责整体芯片架构、算法及结构验证;博通承担芯片集成、电路实现(含互联、内存、电源管理相关电路设计等前端环节)及后端的布局布线、流片测试、封装交付等全流程工作。谷歌在核心模块设计中参与度逐渐提升,原因一是内部团队沟通效率更加高,二是能避免核心架构知识因外部合作外泄。

  与字节的合作模式: 字节芯片设计团队为近两年新组建,目前处于学习阶段,博通参与率非常高;字节主要提出算力、带宽等需求,由博通负责优化及核心模块设计。

  光模块需求比例对比: 对比GPU与TPU对800G光模块的需求比例:GPU为1颗对应1个800G光模块;谷歌TPU方面,其板卡为4颗芯片结构,2颗TPU对应1个800G光模块,因此TPU对光模块的需求比例低于GPU。

  V7性能、出货时间及功耗: V7主要是针对推理端做了深入优化,在推理端延迟响应更快,并发解决能力更强;2026年一季度出货,全年出货量约180万颗。

  V8性能、价格及机柜结构: V8重点提升训练端性能,2027年推出,标配HBM4;机柜内芯片数量与V7类似;价格这一块,V8预计接近15000美金(因偏训练端且HBM成本比较高),V7价格约1万-1.2万美金;目前V8的液冷方案尚未确定。

  TPU价格的构成要素: TPU价格是谷歌芯片交货费用除以出货量的平均价格,包含三部分:a.NRE成本,通常在第一批芯片出货中抵扣,后期价格因不含此成本而下降;b.生产制造成本,涵盖台积电流片(5nm、4nm或3nm)、掩膜、测试封装等台积电收取的费用;c.博通的毛利率,通常在60%-70%之间。V6的价格约为8000美金。

  V7量产延迟的原因: V7量产延迟的核心原因是流片后测试性能未达标需重新流片。其量产计划原定为2025年,现推迟至2026年一季度全量产。

  国内ASIC厂商进展: 国内ASIC领域领先厂商包括阿里、百度(昆仑之星)及华为,其中华为更类似英伟达,是通用AI加速芯片,除此以外还有摩尔线程等公司,但整体在算力上与国外芯片存在代际差异。国内厂商面临的主要挑战是工艺限制,目前最先进工艺仅能到7纳米且产能没办法保证,同时流片环节受台积电等限制。

  海外ASIC厂商进展: 海外ASIC厂商中,谷歌是最大玩家,其下Meta 2026年出货量约50万颗;OpenAI芯片2026年二、三季度量产,NBI领域出货量约20万颗;XAI芯片2027年推出,初始出货量20-30万颗;字节2026年启动ASIC项目,预计年出货量50-60万颗;亚马逊下一代训练芯片由博通代工,2027年出货量约100万颗。此外,DeepMind因需求量不大且研发能力不够,放弃自研计划,决定采用谷歌芯片,2026年预计采购40万颗,2027年规模达60万颗。

  2026年ASIC需求展望: 2026年ASIC出货量预计约100多万颗,低于市场此前预期的300-400万颗。小厂商因需求量小、缺乏研发实力及财力支撑芯片迭代,更倾向于采购第三方芯片或利用其架构。

  OCS技术的优势: OCS技术采用光互联方式,核心优点是带宽无限且传输距离远,适用于数据中心高速互联场景。

  OCS技术的局限: 当前光子计算及量子计算尚未成熟,OCS技术处理数据时存在很明显局限:需将光信号转换为电信号处理后再转回光信号,因无法直接在光信号上运算,导致存在延迟问题。

  谷歌的OCS应用情况: 谷歌内部GPU网络中OCS技术渗透率约50-60%,部分节点仍需采用光电交换机处理;OCS协议需通过以太网或其他通用协议与外围非TPU结构连接以实现数据互联互通。

  A:谷歌TPU需求量近年大幅攀升,2025年出货量预计约300万颗;2026年出货量大概率超400万颗;2027年V8将成为出货主力,出货量约330万颗,V7约200万颗,整体出货量超500万颗。

  Q:谷歌外销芯片今年约300万颗、明年400万颗的出货量目标,实现概率大不大?

  A:大概率会超过400万颗。谷歌外销芯片比例持续提升,今年预计出货量超过50万颗,明年超过100万颗;今年与Android签署协议,明年向Android交货40万颗,OpenAI、Meta、XAI、苹果等均从谷歌采购芯片,还有欧洲等小型客户,这些均推动谷歌外销芯片数量增长。

  Q:海外大厂与谷歌存在竞争关系且自身在推有关产品,为何仍会采购谷歌的TPU?

  A:谷歌TPU技术成熟,已迭代至GPT第五至七代,在架构设计、运算效率、功耗控制及成本管理上具备独特竞争优势。OpenAI等大厂的芯片研发处于早期阶段,需通过使用谷歌TPU学习其架构及应用经验;同时,为降低对英伟达方案的依赖,这些大厂将谷歌TPU作为过渡选择。未来三五年待自身芯片成熟后,预计会采用谷歌与英伟达的芯片以实现采购及架构多样化,减少对英伟达生态的依赖。

  A:使用谷歌TPU存在迁移成本,尤其是现有运行在英伟达上的大模型迁移至TPU的工作量极大,且迁移后模型能否运行仍存疑问。目前OpenAI、Meta、Anthropic等公司接入TPU的多为偏推理性模型,因谷歌芯片在推理方面更具优势,且这些模型特性更接近谷歌自身的MyLAN、TensorFlow等模型。谷歌会在软件生态开发层面针对这些客户的模型做优化,但不会修改TPU硬件,而是通过提升软件层对不同模型的适配性及优化软件栈来支持运行。TPU并非通用芯片,与GPU相比,其单位功耗的算力成本更具优势,若能适配Meta、OpenAI等客户的模型,将为这一些企业带来较大价值。

  Q:公司今年50万颗、明年100万颗的TPU出货量按客户划分的结构是怎样的?

  A:今年50万颗TPU出货量中,OpenAI、Meta、苹果、XAI各约10万颗,剩余约10万颗来自欧洲几家云厂商等小客户;明年100万颗出货量中,Anthropic约40万颗,苹果约20万颗,剩余约40万颗预计来自OpenAI、XAI等客户。

  A:早期因谷歌芯片设计能力较弱,芯片前端结构设计至后端全流程均由博通负责;如今谷歌拥有五六百人的芯片设计团队,具备独立设计能力,合作方式调整为谷歌负责芯片整体架构、算法及结构验证,博通负责芯片集成、模块具体电路实现、前端及后端设计。核心算力单元等模块谷歌参与度提升,原因是其需保护核心架构及提高算法与硬件的沟通效率,但芯片整体集成及性能优化仍由博通主导。

  A:字节芯片设计团队于近两年组建,目前处于学习阶段,芯片设计能力弱于谷歌。博通在字节芯片的前端设计、后端设计及流片等环节参与率极高,全权负责相关工作;字节主要提出算力、带宽等需求,由博通负责优化及核心模块设计。

  A:英伟达72卡机柜含144颗GPU芯片,采用64通道800G NV Switch架构,每台服务器约1个GPU对应1个800G光模块;谷歌TPU板卡含4颗芯片,两颗GPU对应1个800G光模块,其光模块需求量比例小于英伟达。

  A:从谷歌信息来看,TPU V7偏推理端,针对推理端做了深入优化,延迟响应更快、并发解决能力更强;V8偏训练端,训练端性能更优。V8预计2027年推出,标配HBM4,而V7不支持HBM4;其在带宽、HBM用量及带宽要求上与英伟达一致,带宽及算力较V7大幅提升。

  ?A:V8价格目前难以预测,因偏训练芯片且HBM价格较高,大概率接近15000美金;V7价格按芯片面积及工艺推算,约在1万至12000美金之间。

  A:V8预计2027年推出,目前液冷方案未完全确定,需等待芯片前期规划确定后,再决定具体液冷方案。

  A:V7明年将使用HBM3,因HBM4预计明年一季度由海力士开始量产,且V7设计已接近完成,不会改用HBM4;V8大概率使用HBM4。

  Q:PCB供应商的进度情况,当前主供商是否为TFC和RSU,及今年阶段性补位进展如何?

  A:因公司业务更多偏向芯片产品与市场,对PCB板相关情况了解较少;提及的PCB供应商相关联的内容属于下游供应链、采购范畴,公司接触较少。

  Q:明年国内外科技大厂自研ASIC产品的进展,以及明年AIGC领域各家的市场、市场占有率及下游需求量展望如何?

  A:国内方面,阿里、百度及华为处于领先,华为为通用AI加速芯片;摩尔线程等其他公司算力与国外存在代际差异,国内芯片公司面临工艺挑战,流片受限制,最先进7纳米工艺产能没办法保证。海外方面,Meta明年ASIC量约50万颗;OpenAI明年二、三季度量产,NBI领域量约20万颗;X A2芯片27年推出,初始量20-30万颗;博通明年启动字节项目,预计年出货量50-60万颗;亚马逊下一代训练芯片由博通打造,27年出货规模约100万颗;微软目前出货量小,明年计划与博通接触委托设计下一代产品;软银、Oracle等27-28年形成规模出货。此外,DeepMind放弃自研,明年从谷歌采购40万颗,后年60万颗;未来类似Antler的公司会增多,因需求量小、研发实力/财力不足,更倾向采购第三方芯片或利用其架构。

  Q:Meta、亚马逊的Training Two、Training Three等芯片与谷歌第七代芯片相比,迭代速度较慢且频繁跳票的原因是什么?A:芯片迭代慢及跳票主要源于两方面因素:一是定制芯片难度高,需设计服务企业与云厂商深度配合,复杂ASIC芯片需长期磨合以实现结构与电路的最佳契合——谷歌早期前四代芯片出货量仅10-40万颗,第五代才达百万颗以上规模;二是芯片公司自身设计能力与投入成本,博通依托收购亚赛劳杰等形成的资深团队及丰富IP库保障设计稳定性,而部分公司因前期研发投入巨大,导致迭代进度缓慢或跳票。

  Q:谷歌成为首家规模化应用OCS设备的企业,OCS与传统ID或以太网设备相比被谷歌采用的原因及OCS的优势、局限性是什么?

  A:OCS的优点是采用光互联方式,具备无限带宽及远距离传输特性,适合数据中心高速互联需求,这是谷歌采用OCS的核心原因。其局限性最重要的包含:当前光子计算、量子计算技术未成熟,OCS处理数据需将光信号转电信号处理后再转回光信号;谷歌内部GPU网络中OCS渗透率约五六十,部分节点仍需光电交换机;与外围非TPU结构连接时,需通过以太网或其他通用协议实现数据互联互通。

  Q:谷歌除TPU芯片、Cloud AI Suite外,在网络方面还有哪些突破推动了训练强度提升?

  A:谷歌在网络架构上的核心突破包括:定制ICI片间互联芯片并通过类似总线的协议实现片间高速互联;T6芯片支持64颗芯片形成Cube结构的高速片间互联;通过多线程技术形成超级节点,其超级池内V5版本含8000多颗GPU芯片、V6/V7版本含9000多颗GPU芯片,互联形成超级节点,大幅度的提高单节点算力、降低时延并提高响应速度,这些优化一同推动了训练强度提升。

  GDPS 2025全球开发者先锋大会暨国际具身智能技能大赛即将于12月12日-14日在上海启幕,傲意科技将发布新一代混合触觉力控灵巧手。作为本次赛事的铂金赞助商,傲意科技将提供30台高性能灵巧手。傲意旗下ROHand系列灵巧手逐步迭代,目前已形成三大系列,年出货量达数千只。

  高市早苗宣称竹岛是日本固有领土?韩硬刚:将对日本就独岛提出的任何不当主张 予以坚决严厉回应!

  12月9日(报道)重庆,一男子飞无人机时在崖洞中发现干尸,当事人:报警后 有关部门已在处理。

  01多地延长公积金贷款年龄上限男延至68岁,女延至63岁!山东省住房和城乡建设厅召开《山东省住房公积金2024年年度报告》新闻通气会。

  就在12月初,一个令人不安的消息传来:我们两个重要的邻居——巴基斯坦和阿富汗,又打起来了。这场冲突来得猛烈且突然。仅仅在一个多月前,双方还在国际斡旋下达成过停火默契,但就在12月5日晚间,协议的纸张似乎还没凉透,炮火声就打破了夜晚的宁静。而且,这还是一场动用了重型武器的正面互殴。

  中国辽宁舰航母编队在正常训练之下,遭到日本战斗机无理滋扰的后续问题还在持续发酵,12月6日,在中日战机在宫古海峡以东海域发生两次对峙事件之后,不仅是日本给出了激烈的反应,中国海军也是强硬还击,就连美国防长在事前的演讲发言,也被拿出来大肆解读一番。

  用心经营自己的写作人生专注上市公司产业链研究,如果我们什么都改变不了,那就不要改变纯真的灵魂!