中信建投 将同时在出货量 未来国际AI芯片领军企业 生态和产品力上具有抢先性 (中信建投同花顺最新版本)
展望2025年,我们以为算力范围投资分为海外景气派投资以及国际自主可控两大类:
海外景气派投资:1)估值坚定,AI算力全球估值体系参照英伟达,参照台积电Cowos扩产节拍,25年算力产业链确定性较强,看好算力产业链;2)围绕增质变化及新技术投资,25年最关键的是英伟达NVL36、72机柜末尾出货,以及为了应对更大模型参数量训练,单机柜中AI芯片互联数量将继续优化,其中铜衔接、液冷、电源变化最大,CPO及MPO等新技术也将末尾在2025年不时走向成熟;3)围绕份额变化投资,随着产业链的深化,光模块、PCB等环节的供应商明年会有份额的变化。
国际自主可控:依据2023年底美国商务部和安保局(BIS)发布的一揽子规则,目前国际所能失掉的AI芯片性能下限基本就在H20这一级别,思索到H20的FP 16算力只需B200芯片的6.7%,其性能并有余以支撑国外向更大参数量模型去探求,因此国际AI芯片展开紧迫性凸显。我们以为,未来国际AI芯片领军企业,将同时在出货量、生态和产品力上具有抢先性。同时,思索到国产芯片制程、工艺以及明年国际互联网客户末尾推进机柜方案,倡议注重国产电源、液冷等相关标的。
中信建投证券TMT研讨团队推出【AI算力2025年投资机遇展望】:
通讯视角下的新质消费力:科技自强,先进度开
海外算力:需求继续高增,国际厂商介入范围扩展
北美云厂商单季度资本开支继续优化。2024Q3,北美四家云厂商的资本开支总计为588.62亿美元,同比增长59.31%,继续高速增长态势,且对未来资本开支指引绝望。
亚马逊:226.20亿美元,同比增长81.26%,估量2024年资本支出约750亿美元(现金资本支出+设备融资租赁,前三季度为519亿美元),大部分用于基础设备树立,关键与AWS相关;估量2025年资本支出或将介入,其中大部分用于AWS,由生成式AI驱动。
微软:149.23亿美元,同比增长50.48%(含融资租赁为200亿美元,同比增长78.6%),鉴于云和人工自动的需求信号,估量资本支出环比介入。
谷歌:130.61亿美元,同比增长62.15%,估量Q4资本支出与Q3坚持同一水平,估量25年资本支出将介入。
Meta:82.58亿美元,同比增长27.12%(含融资租赁为92亿美元,同比增长36.1%),估量2024年资本支出380-400亿美元,此前预期为370-400亿美元,估量2025年资本支出将大幅增长。
国际企业深度介入海外算力基础设备树立,在需求继续增长下有望充沛获益。从产业链环节拆分来看,算力基础设备包括GPU芯片和主机、交流机、光模块及其抢先所要求的PCB、铜衔接、电源、液冷等,将ICT设备放置于IDC机房内,最终构成算力基础设备。在以后海外的算力基础设备环节,除芯片环节外,国际厂商在其他环节均有不同水平的介入,尤其在光模块范围占据关键市场份额,并在其他环节具有良好的市场份额优化预期。
光模块:1.6T光模块将进入放量周期,硅光、CPO等新技术浸透率减速优化
NVIDIA表示,随着新模型的推出,人工自动范围对计算的需求正在以指数级增长,这要求减速的训练和推理才干。强化学习(Reinforcement Learning)是机器学习的一个分支,它的中心理想是让自动体经过与环境的交互,不时尝试、不时学习,最终找到最优的执行战略,以最大化累积奖励。强化学习有三大优势:在复杂环境中表现出色;增加了对人类互动的要求;针对终年目的启动优化。仰仗这些优势,强化学习在特性化营销、优化难题和财务预测上有普遍的运转。随着强化学习模型的加快迭代,推理侧算力需求有望呈迸发式增长。
1.6T光模块有望在2024年底小批量出货,比预期延迟一年左右。 在AI数据中心中,越来越多的客户偏向于选择更大带宽的网络配件。带宽越大,单位bit传输的本钱更低、功耗更低及尺寸更小。800G光模块的高增速曾经能够反映出AI关于带宽迫切的需求,其在2022年底末尾小批量,2023年和2024年的出货量都大幅增长。而AI关于带宽的需求是没有极限的,得益于网络较高的性价比,1.6T光模块有望减速运转。从下游客户来看,2025年1.6T光模块的关键需求方估量将是英伟达和谷歌。
规划硅光子技术的海外巨头厂商较多,有望在 AI 浪潮下成功加快展开。硅光子技术是以硅或许硅基资料(Si,SiO2,SiGe)作为衬底资料,运行与集成电路兼容的 CMOS 工艺制造对应的光子器件和光电器件,以成功对光的激起,调制,照应等性能,普遍运转于设备互连、光计算等下游多个范围中。硅基资料具有兼容 CMOS工艺、低本钱和低功耗等优势。随着 AI 的加快展开,硅光子技术从通讯逐渐拓展到算力基础设备及下游运转范围,包括板间芯片光互连、芯片内 chiplet 光互连、光计算和激光雷达等范围。海外巨头厂商纷繁规划硅光子技术,有望成功加快展开。
硅光子技术下游需求旺盛,抢先设计方案百花齐放,代工厂积极规划。硅光子技术产业链的抢先包括光芯片设计、SOI衬底、外延片和代工厂,中游为光模块厂商,下游分为数通范围和电信范围。一体化规划的厂商优势比拟清楚。英特尔、旭创、Coherent、思科和Marvell等厂商同时具有PIC设计和模块集成才干,且与下游云厂商和AI等巨头客户坚持严密协作,优势清楚,在供应链中的引领作用较为清楚。
共封装光学(CPO)是业界公认的未来更高速率光通讯的支流产品外形之一,可清楚降低交流机的功耗和本钱。随着交流机带宽从最后的640G更新到51.2T,Serdes速率不时更新叠加数量的继续介入,交流机总功耗大幅优化约22倍,而CPO技术能够有效降低Serdes的功耗,因此在51.2T及以上带宽交流机时代,CPO有望成功打破。硅光芯片是CPO交流机中光引擎的最佳产品外形,有望在未来失掉普遍运转。目前英伟达、博通和TSMC等海外巨头厂商在CPO具有规划。
随着AI的加快展开,多模态大模型的参数量大幅优化使带宽容量也加快扩张,其中也包括主机或机柜外部的带宽容量。随着带宽的减速增长,电信号传输距离越来越短,在芯片互连范围“光进铜退”目前看来也是势在必行的行业趋向。英伟达与Ayar Labs、台积电等多家公司协作硅光子集成项目。在传统的DGX主机中,主机外部GPU与NVSwitch之间用电信号衔接,硅光子方案中将GPU和NVSwitch都接入硅光I/O,每个GPU对应2个光引擎,每个NVSwitch对应6个光引擎,双向带宽抵达25.6Tbps。数据收发环节单位bit消耗3.5pJ能量,英伟达仍在努力降低功耗,从而优化该方案的性价比。此外,博通和英特尔都推出了OIO产品,有望取得打破。
CPO浸透率优化将带来数通光通讯范围市场规模的大幅增长。CPO技术运转的重点并不只仅在交流机侧成功功耗和本钱的降低,更多的是在IO范围打破电信号传输的速率瓶颈。市场对GPU:光模块=1:2.5的换算比例看法较为明晰,但假定在scale up运转CPO,那么GPU:光引擎=1:11.5将成为理想。除了GPU之外,CPU、FPGA、ASIC,甚至三星末尾研发的HBM中也会用到。在未来的CPO时代,光模块行业估量将演进为光引擎行业,市场规模有望成功大幅增长,同时在此环节中关于光芯片、封装和设备范围将带来清楚的需求拉动和产业格式重塑。
国际光模块厂商实力抢先,充沛介入海外算力链条,业绩曾经陆续兑现高增。以后来看,除了光模块厂商外,更多A股上市公司也积极介入规划海外算力链,包括液冷、铜衔接、电源等环节。
液冷:GB200系列产品带动液冷浸透率加快优化,估量将成为AI算力必选项
参考TrendForce信息,随着英伟达Blackwell架构的GPU芯片产品估量于往年第四季出货,将推进液冷散热方案的浸透率清楚增长,从2024年的10%左右至2025年将打破20%。相关产业链公司表态积极:
Vertiv:2024年三季度,Vertiv支出同比增长19%,增速进一步优化,公司上调2024年全年预期,并对2025年展望绝望。2024年三季度公司订单同比增长17%,截至2024年三季度订单(TTM)同比增长37%。2024年四季度营收增速指引11-15%,营业利润率指引20.2%-20.6%。进一步上调2024年全年指引,营收增速中枢由12%上调至14%,营业利润率中枢从18.7%上调至19.0%。2024年每个季度的库存量延续增长,包括与AI相关的库存量大幅介入,反映了数据中心市场的微弱增长。预期2025年内生增速进一步提速。
奇鋐:GPU散热业务拉动增收。往年以来,奇鋐营收同比继续稳健增长,关键系GPU散热业务等拉动(2023年支出中,公司主机和网络占比约31%):公司水冷产品第三季顺利出货给北美CSP客戶,逐渐加大营收奉献(营收占比从2023年的2%提至2024年预期的5-10%);运转于伺服器的气体散热方案3D VC产品奉献也逐季增长(营收占比从2023年的1%提至2024年预期大个位数),运转于英伟达H系列及B系列晶片的伺服器。公司表示,明年GB200末尾大规模量产后,有望带动水冷散热普及。
液冷全体产业成熟度相对较低,并且触及到比拟多的环节,包括冷板、CDU、manifold、UQD等,目前介入厂商相对较多,包括全球数据中心散热系统厂商Vertiv等、原来主机外部风扇等散热部件供应较多的厂商cooler master、奇鋐、双鸿、coolIT等,等大陆厂商也在积极规划。
铜衔接:GB200机柜外部互联带来需求增量,关注后续展开途径
自大模型时代开启以来,产业界沿着Scaling Law在继续不时推出更大参数的模型和更多模态的模型,超节点计算才干的要求也不时优化,scale-up网络趋向上将成功更多的节点互联和更大的互联速率。GB200 NVL72经过NVLink将72个Blackwell GPU互连。
GB200 NVL72成功72个GPU NVLink5.0互联,铜衔接的场景与用量加大。以后来看,在GB200 NVL72机柜中,Compute tray与switch tray之间、Switch tray外部将采纳铜缆衔接,GB200 NVL72互联协议采纳NVLink5.0(1.8TB的总带宽,双向),衔接器/铜缆采纳224Gb/s serdes速率,则一个NVL72的机柜将会用到5000多根tray与tray之间的背板铜缆以及5000多根在Switch tray外部的overpass线缆。方便来看,铜衔接的用量与域内互联的GPU数量、NVLink的互联带宽、铜缆衔接器的速率等相关,scale up互联GPU的数量介入、NVLink互联性能的优化,将带动铜衔接的用量介入/速率优化。
相比于光传输,电传输具有清楚的本钱和性价比优势,但由于电信号在铜线中传输存在损耗,通讯带宽优化,趋肤效应形成在铜线和PCB Trace中传输损耗介入,衔接器头子损耗介入,封装Trace损耗介入,因此有效传输距离将随着速率优化而清楚缩短。人工自动减速算力基础设备配套环节迭代,电衔接(包括PCB、铜衔接)、光衔接都在继续演进更新,要求关注后续技术途径的变化展开。
电源:单卡与机柜功率密度优化,电源产品规格要求更新
主机电源通常由三层构成:不延续电源(UPS)、交流直流电源(AC/DC)和直流直流电源(DC/DC)。其中,UPS担任在电网终止时维护数据,AC-DC则将交流电转换为适宜主机经常经常使用的直流电,而DC-DC则进一步将电压调整到芯片可接受的范围。
AI展开与GPU的功耗优化,促使AI主机电源的功率密度不时优化。以H100主机机架为例,10.2kW的功率要求装备19.8kW的电源;而NVL72机架的120kW功率则多装备198kW的电源模块,部分厂商装备264kW的电源模块。AI主机电源的功率密度可达100W/立方英寸并且中终年继续优化趋向,远超普通主机电源的50W/立方英寸,功率密度的优化关于电源模块拓扑设计、资料/元器件选择、散热等均提出高要求。
主机电源行业是比拟强工艺技术阅历积聚的行业,目前英伟达GB200等高端主机电源产品多以全球电源头部厂商台达、光宝、FlexPower等介入为主,等大陆厂商也在积极规划。
国际算力:多主体需求开释叠加自主可控,产业链业绩开释在即
国际算力投资加大。互联网厂商侧,从腾讯、阿里巴巴两家云厂商资本开支状况来看,2023Q1末尾出现逐季度回暖态势,从23Q4末尾同比转正,2024年以来较快增长。2024Q3,腾讯和阿里巴巴资本开支区分为170.94亿元、169.77亿元,区分同比增长114%、313%,2024Q1、2024Q2、2024Q3腾讯和阿里巴巴算计资本开支区分同比增长245%、108%、181%。
运营商也在清楚加码算力网络方面的资本开支。2024年方案总体资本开支1730亿元,同比降低4%,用于算力资本开支方案475亿元,同比增长21%。2024年方案总体资本开支960亿元,同比降低4%,用于产业数字化资本开支370亿元,同比增长4%,用于云/算力投资180亿元。2024年方案总体资本开支650亿元,同比降低12%,公司表示投资重点将由稳基础的联网通讯业务转向高增长的算网数智业务。截至2024年中报,中国移动、中国电信、中国联通智算算力(FP16)区分抵达19.6EFlops、21EFlops、10EFlops。
国产芯片、大模型、运转端继续取得加快展开。国产头部芯片单芯片算力或已靠近A100,或优于H20。以FP16精度为例,国产芯片中华为昇腾910算力为256TFLOPS,略低于A100的312TFLOPS,相较于H100的1513TFLOPS有较大差距,但强于H20的148TFLOPS。此外,平头哥含光800在INT8精度,壁仞科技BR100在FP32精度均逾越A100。在单颗芯片峰值算力上,国产芯片已满足大规模经常经常使用条件。近期中国证监会官方显示,摩尔线程在北京证监局料理辅导备案注销,启动A股上市进程,此前8月燧原科技在上海证监局料理了上市辅导备案,9月壁仞科技在上海证监局料理IPO辅导备案注销。同时国际大模型厂商的才干也在加快优化,运转减速展开。SuperCLUE最新2024年10月测评结果显示,国产第一梯队大模型已与GPT4-4o得分拉至靠近。
智算中心树立过度超前。2024年10月,国务院国资委主任张玉卓在《新型工业化》发文中提到,中央企业自动算力资源是我国算力网络的关键组成部分,下一步将过度超前树立一批自动算力中心,强化人工自动算力供应;同时构建愈加完善的网络安保保证体系,优化数据安保控制才干,筑牢数字经济安保屏障。据中国IDC圈不完全统计(2024年11月8日资讯信息),目前不同树立阶段的智算中心项目已逾越500个,其中投产运营的项目160个,开工在建项目逾越200个。工信部《算力基础设备高质量展开执行方案》显示,2023年我国算力规模抵达220EFLOPS,其中自动算力占25%,目的到2025年,算力规模逾越300EFLOPS,自动算力占比抵达35%。截至2024年6月,全国在用算力中心机架总规模逾越830万规范机架,算力总规模达246EFLOPS。
未来随着国产芯片才干、大模型才干的优化、人工自动运转的展开,国际算力基础设备需求估量将继续被拉动。此前国际AI展开掣肘于海外AI芯片禁运和国产AI芯片才干有余,随着国际自研AI芯片供应才干的逐渐优化,国际算力基础设备树立蓄势待发。在海外AI芯片主导的AI算力产业链中,AI芯片、主机、交流机等大价值量环节基本由海外公司主导,而国产算力产业链自身基本可以成功闭环,包括AI芯片、主机、交流机、光模块、液冷、衔接器/线束、PCB等各环节在内的国际公司都将集中受益。国产算力树立带来的增量曾经在部分厂商在业绩端逐渐表现,并且后续预期绝望。
主机:AI主机占比和国产化率优化,竞争格式或存变数
AI主机市场高增。IDC数据显示,2023全年中国减速主机市场规模抵达94亿美元,同比增长104%,从行业角度看,互联网依然是最大的推销行业,占全体减速主机市场近60%的份额,此外金融、电信、交通和医疗瘦弱等少数行业均有逾越一倍以上的增长。
AI主机占比优化和国产化率优化,国际主机厂商竞争格式或存变数。此前主机竞争格式中,浪潮、新华三等厂商份额较高。2022年中国主机市场份额来看,浪潮、新华三、超聚变、宁畅、中兴位列前五,份额区分为28%、17%、10%、6%、5%。2022年我国AI主机市场份额来看,浪潮、新华三、宁畅位居前三,份额区分为47%、11%、9%。随着国产AI芯片占比的优化,AI主机供应商格式或存在变化。以后昇腾在国产GPU中性能较为抢先,国际深度介入华为昇腾算力主机供应的厂商有望更为受益,详细可参考中国电信、中国移动等中标候选人状况。未来随着国际其他厂商GPU新产品的推出以及推理等场景的丰厚,国际GPU生态也有望愈加丰厚,进一步或许存在新的变化。
交流机:AI组网拉动需求增长,高速产品占比迅速优化
2023年国际交流机市场规模小幅下滑,2024年在AI拉动下,高速交流机放量,2024H1恢复增长。据IDC数据,2023年中国交流机市场规模约57.82亿美元,同比降低4.44%。2024H1中国交流机市场规模为25.84亿美元,同比增长3.12%。
2023年,由于英伟达、华为等GPU卡的供不应求,国际互联网厂商、电信运营商加大了GPU的推销力度,而网络设备推销相对滞后,因此国际数通交流机市场规模出现下滑。2023年中国数通交流机市场支出为33.96亿美元,同比降低3.68%,占比约48.66%。随着下游客户训练集群的陆续搭建,也带动网络设备推销,2024H1中国数通交流机市场规模18.14亿美元,同比增长16.78%,份额占比达58.16%。
此外,2020年以来,200G/400G交流机出货占比优化,估量高速交流机比例有望继续优化。2023年中国200G/400G交流机出货占比为8.0%,2024H1占比优化至16.7%。随着2023年来博通TH5交流芯片的规模出货,估量2024下半年800G交流机将末尾放量。
光模块与衔接器:代际更新略晚于海外,高速率产品估量末尾放量
2022年末尾,北美传统云计算市场的光模块曾经末尾向800G速率更新,2024年800G光模块的出货量估量大幅增长,1.6T光模块有望在2024年下半年小批量出货并有望在2025年大幅增长。国际光模块最新代际展开来看稍晚于海外,2024年估量400G需求大幅增长,部分头部CSP推销800G产品。随着国际AI主机发货增长,估量也将带动相关光模块环节放量。
AI展开,GPU性能不时优化,相关数据中心衔接系统架构也向高速更新,从10Gbps-40Gbps向56Gbps、112Gbps、224Gbps等继续迭代更新,拉动相关高速衔接器及配套高速铜缆等需求。以后海外曾经展开到224Gbps的数据传输速率,安费诺、Molex、TI等全球头部厂商推出了相对完整的224G衔接系统处置方案。国际由于全体网络侧部署更新略晚于海外,相同衔接系统更新也会略晚于海外。以后国际厂商产品仍以56Gbps为主,在部分产品范围成功112Gbps、224Gbps产品打破。
液冷:产业趋向明白,2024年进入规模部署阶段
液冷是趋向相对曾经明白,以后支流为冷板式液冷方案。估量液冷2024年将进入规模部署阶段,并且我们以为随着规模运转带来的方案成熟度的验证以及本钱端的降低,叠加PUE监管要求的实质性落地,液冷有望进一步向通用主机市场启动浸透。短中期来看,冷板式液冷方案是支流,经过关于AI主机出货量、通用主机出货量、单KW本钱造价、液冷浸透率等假定,我们匡算全体规模有望抵达200亿元。而随着AI的展开,带动主机的量有望进一步清楚优化,行业规模有望进一步翻开。
从产业链角度,冷板式液冷关键分为在主机外部的冷板、管路、快接等部件,以及启动冷量分配的CDU、manifold等,以及关于散热启动补充的风冷部分。主机外部的环节,关键由主机厂商启动推销,部分芯片厂商在供应链环节具有必需话语权。CDU、Manifold相关的冷量分配系统,关键由互联网厂商、运营商、数据中心厂商或集成商、模块化设备提供商等下游客户启动推销。不同厂商介入的环节不同,全体的业务可达空间也存在差异。
风险提醒:
AI热点运转及变现才干不及预期或许形成AI算力投资加快回落,进而形成算力板块利润率、业绩预期清楚下修;红利资产在估值修复后,或许因业绩增速降低、预期股息率降低或许筹码结构买卖要素等形成估值、股价回落;国际环境变化对供应链的安保和稳如泰山出现影响,对相关公司向海外拓展的进度出现影响;人工自动行业展开不及预期,影响云计算产业链相关公司的需求;空中经济行业展开进度不及预期;5G-A基站树立规模低于预期;低轨卫星星座树立本钱居高不下,商业化落地进程受阻;市场竞争加剧,形成毛利率加快下滑;汇率坚定影响外向型企业的汇兑收益与毛利率,包括ICT设备、光模块/光器件等板块的企业;数字经济和数字中国树立展开不及预期等;电信运营商的云计算业务展开不及预期;运营商资本开支不及预期;云厂商资本开支不及预期;通讯模组、自动控制器行业需求不及预期等。
证券研讨报告称号:《通讯行业2025年投资战略报告:通讯视角下的新质消费力:科技自强,先进度开》
报揭露布机构:中信建投证券股份有限公司
本报告剖析师:
刘永旭 SAC 编号:S1440520070014
SFC 编号:BVF090
阎贵成 SAC 编号:S1440518040002
SFC 编号:BNS315
武超则 SAC 编号:S1440003
SFC 编号:BEM208
杨伟松 SAC 编号:S1440522120003
汪洁 SAC 编号:S1440523050003
曹添雨 SAC 编号:S1440522080001
尹天杰 SAC 编号:S1440524070016
算力为基,自主可控大势所趋,Agent及B端运转崛起
算力:海外景气派高企,注重增质变化,国际自主可控大势所趋
算力投资中心要点
展望2025年,我们以为算力范围投资分为海外景气派投资以及国际自主可控两大类:
海外景气派投资:1)估值坚定,AI算力全球估值体系参照英伟达,参照台积电Cowos扩产节拍,25年算力产业链确定性较强,看好算力产业链;2)围绕增质变化及新技术投资,25年最关键的是英伟达NVL36、72机柜末尾出货,以及为了应对更大模型参数量训练,单机柜中AI芯片互联数量将继续优化,其中铜衔接、液冷、电源变化最大,CPO及MPO等新技术也将末尾在2025年不时走向成熟;3)围绕份额变化投资,随着产业链的深化,光模块、PCB等环节的供应商明年会有份额的变化。
国际自主可控:依据2023年底美国商务部和安保局(BIS)发布的一揽子规则,目前国际所能失掉的AI芯片性能下限基本就在H20这一级别,思索到H20的FP 16算力只需B200芯片的6.7%,其性能并有余以支撑国外向更大参数量模型去探求,因此国际AI芯片展开紧迫性凸显。我们以为,未来国际AI芯片领军企业,将同时在出货量、生态和产品力上具有抢先性。同时,思索到国产芯片制程、工艺以及明年国际互联网客户末尾推进机柜方案,倡议注重国产电源、液冷等相关标的。
新技术:CPO及MPO自2025年逐渐迈向成熟
MPO(Multi-fiber Push-On)是一种高密度光纤衔接器,普遍运转于光通讯系统中。其设计支持在一次性性衔接中同时传输多路光信号,极大地提高了光纤衔接的密度和效率。MPO衔接器通常用于数据中心、主机和其他高性能计算环境,以满足日益增长的数据传输需求。
MPO技术来源于20世纪90年代,最后用于电信行业的高密度光纤衔接。随着数据中心和云计算的加快展开,MPO衔接器逐渐成为光通讯范围的规范性能。近年来,随着大模型对大型算力集群的需求,以及800G和1.6T光模块的普及,MPO技术的运转范围和市场需求进一步扩展。
其关键性能包括:1)高密度衔接:支持多达12根光纤的并行衔接,清楚提高衔接密度;2)加快插拔:设计便于加快装置和装配,适宜频繁改换和保养的场景;3)低损耗:优化的光学设计确保低拔出损耗和高回波损耗,保证信号质量;4)兼容性:可与多种光纤类型和规范兼容,顺应不同的运转需求。
经常经常使用场景:1)数据中心外部互联:用于衔接交流机和主机,提供高带宽的光纤衔接;2)主机集群互联:在高密度主机环境中,MPO衔接器用于成功主机之间的加快、高效衔接;3存储网络:用于衔接存储设备和主机,支持大数据传输和高性能存储操作。
在高性能计算环境中,MPO衔接器通常用于光模块与光纤之间的衔接。例如在一个CPO中,或许要求多个MPO衔接器来成功高密度的光纤衔接。如一个800G光模块或许经常经常使用两个MPO衔接器来支持16条光纤的并行传输。GPU通常要求经过高速光纤网络与其他计算节点衔接。MPO衔接器用于成功GPU与交流机之间的高带宽衔接。
MPO衔接器市场关键由几家大型光通讯设备制造商主导,包括Finisar、博通、Molex等。这些公司仰仗其技术优势和市场份额,在市场上占据抢先位置。此外,随着技术的不时提高,越来越多的新兴企业也在进入这一范围,市场竞争日益剧烈。
MPO技术仰仗其高密度、低损耗和加快插拔的优势,在光通讯范围占据了关键位置。随着如英伟达计算集群中主机数量、单台主机中的GPU卡数量的加快介入,在未来的超大规模计算集群中,关于MPO互联的需求量必需会加快优化,有望带动MPO全体市场规模的提高。
铜衔接:机柜方案成为支流,铜衔接需求高速增长
交流网络中经常出现的衔接处置方案包括光模块+光纤、有源光缆(AOC)和直连电缆(DAC)。DAC可以进一步分为有源DAC和无源DAC:
有源光缆由两端的两个模块组成,由在两边的一段光纤衔接。光学模块和光缆是集成的,两端的光学模块都要求激光组件。与其他电缆相比,AOC具有许多优势。它提供高传输速率、远距离性能、低功耗、重量轻且易于经常经常使用。这些优势是经过采纳光传输而成功的,它抑制了无源光纤电缆或其他电缆类型的局限性。AOC有源光缆设计轻质紧凑,信号信噪比表现好,抗干扰才干强,是数据中心、HPC计算和InfiniBand交流机互连的理想选择。
DAC(直连电缆)电缆是一种网络电缆,用于衔接不同的网络设备(例如交流机、路由器和主机)以构成网络。它也称为双轴电缆,由两根绞合在一同构成电缆的导线组成。它可以以10Gbps、25Gbps、40Gbps、50Gbps和100Gbps的速度传输数据,详细取决于所衔接的网络设备。此外,DAC电缆可以制造为各种长度,例如1m、3m、5m、7m和10m,以顺应不同的网络设置。有源DAC电缆不只可以转换信号,还可以加大信号,它们不易随着距离的推移而丧失信号,十分适宜较长的电缆长度。无源DAC电缆是将数字信号转换为模拟信号的方便电缆。这些电缆不要求外部电源,只是通话的“牢靠通道”。DAC不包括光电转换器模块,电缆端由方便的电缆衔接器组成。这使得它们具有很高的本钱效益,由于其经济实惠和高速性能,无源DAC已成为成功短距离传输的优秀处置方案。
通讯网络中经常出现的衔接处置方案包括光通讯和高速电通讯,无源DAC作为电通讯的关键处置方案其不包括光电转换器模块,具有很高的本钱效益和运营牢靠性,成为成功短距离传输的优秀处置方案。目前的铜缆曾经成功224G以太网Serdes高速通讯技术更新,短距离传输性价比突出,在AI主机高集成度的趋向下,我们以为铜衔接将成为AI主机的关键组成。
GB200NVL72主机采纳大批的铜衔接作为机柜外部通讯方式。GB200NVL72机柜中不同的计算托盘间采纳电缆启动互联,外部经常经常使用电缆长度累计靠近2英里,共有5000多条独立电缆。计算托盘内相同采纳大批铜衔接作为主机内的GPU芯片互联。
铜衔接的优势:
性价比优势:在短距离内,光模块多少钱清楚高于铜缆以及衔接器,铜衔接方案的本钱相对较低。并且其具有高兼容度并不要求额外的转换设备。
牢靠性优势:牢靠性用平均无缺点时期(MTBF)来权衡。无源铜缆的MTBF大约为50000万小时――通常比光缆的行业规范高出一个数量级。铜缆为牢靠的数据传输至关关键的企业数据中心提供了一大优势:防止停运时期。随着数据中心中GPU规模数量的清楚优化,通讯方式的牢靠性成为关键的考量要素。
散热及低功耗优势:DAC消耗<0.1W,相比与有源光缆AOC和有源电缆AEC来说简直可以疏忽不计,相对来说散热更容易。并且铜衔接全体设计愈加灵敏,机柜扩展保养相对愈加方便。
GB200NVL72主机中包括三种铜缆:三种柜外线(NVL72机柜以内的定义为柜外线)以及柜外线(机柜间的互联定义为柜外线)。
计算托盘间的铜缆衔接:单张B200对应1条NVLink5.0衔接,每条传输双向1.8TB/s带宽,Serdes对应的规格为224Gbps通讯协议,铜缆也采纳难度更高的224Gbps产品,即单张B200上方通常衔接72个差分对(72根线)即可以抵达可支持的1.8TB/s的带宽。NVL72单个Rack中共有72张B200,可以得出要求5184根线(72*72),加上eprom线,算计为5544根,平均长度约0.6米。则算计5544*0.6=3326.4米,思索背板线关键采纳高端的26AWG型号的线,单价依照12元/米计算,则单个NVL72机柜中背板线高速铜线价值量为39916.8元/台。
交流机外部互联:NVSwitch芯片一切通讯带宽衔接背板衔接器,总共要求576根overpass线,每根0.3米,9个交流托盘算计1555.2米,单价依照7元/米计算,则算计10886.4元/台。在NVL36处置方案中,NVSwitch芯片一方面衔接背板衔接器,一方面连前端I/O端口,其中衔接背板衔接器的OverPass1线共288根,每根0.3米;衔接前端I/O端口的OverPass2线目前也为288根(带宽前后端分歧),每根0.3米,9个交流托盘算计也为1555.2米,单价依照7元/米计算,则算计10886.4元/台。
计算托盘外部:由PCIE线成功CPU与I/O端口之间的互联,单个tray估量0.4*16*8*4=205米,NVL72算计18个tray盘,则算计为205*18=3690米。单价依照2.5元/米计算,则价值量为9225元。
柜外线高速铜缆市场规模测算:关于中国厂商来说,交付才干、产质量量均处于抢先位置,份额仍在不时优化。我们思索NVL72三部分柜外线,其价值量保守估量约为39916.8+10886.4+9225=60028.2元/台。思索到明年NVL36、NVL72 机柜全体出货量(等效NVL72估量4万台以及NVL36两种版本算计约3万台),仅柜外线铜缆高速线市场就抵达35亿+。目前柜外线大批量出货,高速铜线增量清楚。并且,明年AMD、谷歌TPU以及其它大厂也纷繁采纳机柜方案,其所用高速铜线规模也较大。
依据线束中国信息,目前安费诺是GB200 NVL72主机铜衔接的供应商,其产品可以支持224G高速通讯的批量交付,受限于产能和产品稳如泰山性考量,部分国际企业或成为安费诺供应商从而受益于英伟达NVL72主机铜衔接供应体系。
液冷:机柜功耗大幅介入,液冷黄金时代来临
单卡功耗介入以及更多的卡集中在一个机柜,散热方式从风冷更新为液冷。依据冷却介质不同,数据中心冷却方式分为风冷和液冷,而液冷方案可分为冷板式、喷淋式和浸没式三种,以后随同单台主机功率的不时优化,液冷主机浸透率有望加快优化。数据中心作为继续的产热大户,高效且稳如泰山的散热系统是关键的配套设备,依据冷却介质差异可划分为风冷和液冷两种方案。与风冷方案运行空气作为冷却介质不同,液冷方案以液体(导热油或氟化物)作为冷媒,运行液体流动将数据中心ICT设备外部元器件出现的热量传递到设备。相比传统风冷,液冷技术具有更高的散热效率、低能耗、低TCO、低噪声和低占空中积等清楚优势,是单机柜功耗继续增长背景下处置散热压力、应对节能应战的关键途径。
功耗下限/PUE范围/经济效益三重优势加持下,液冷系统减速浸透具有较强确定性:
1)AIGC推进功耗加快优化,单芯片功耗成功数倍式飞跃。随着内核数量的介入,处置器性能与功率成功了同步增长,带动CPU单芯片功耗同步优化,而GPU由数百个内核组成,可同时处置数千个线程,功耗较CPU清楚更高,英伟达GB200由两个1200W GPU与300W CPU构成,总功耗高达2.7KW,单芯片功耗的翻倍式优化使得其对散热的要求远远逾越传统风冷才干范围(通常上部分冷却板式液冷系统也仅能满足单芯片功耗270-500W范围)。
2)单机柜功率密度优化,已打破传统风冷散热下限。单台通用主机通常仅性能2颗CPU,单台主机功耗通常不到1KW,而依据英伟达提供的数据,NVL 72主机性能了36颗GB200 GPU,受新增多颗高功耗GPU性能影响,NVL 72主机的系统功耗可达120 KW,较通用主机大幅优化。以后我国支流风冷机柜功率范围大致在7-10 KW范围内,则要求多台传统风冷机柜才可容纳一台NVL 72主机,机柜空间冗余较多,且机柜间排布需有必需距离以成功散热,互联本钱介入且机房经常经常使用效率将大幅降低。因此,随同高功耗AI主机的上架,为在满足功耗要求的基础上提高机房的空间运行率,高功率机柜或将同步增长。
3)政策严控PUE,更高效的散热方案是关键。PUE为数据中心总耗电量与IT设备耗电量的比值,其值越靠近1,说明数据中心关于电能的运行越有效,是表征数据中心能耗的中心目的,而空调系统作为除IT设备之外的第二大能耗方向,也是降低PUE的关键所在。随着碳中和碳达峰战略的深化推进,针对数据中心这一用电大户,国度层面以及中央政府均出台了系列政策对PUE启动严控。新建项目方面,普遍要求新建的大型及以上数据中心PUE不逾越1.3,对国度枢纽节点的PUE要求更为严苛,“东数”节点要求控制在1.25以内、“西算”节点要求控制在1.2以下;存量项目方面,要求逐渐对PUE>1.5的数据中心启动革新。据统计,传统风冷方案的数据中心PUE普通在1.5左右,采纳液冷的数据中心PUE可以降低至1.2以下,从以后通常状况来看,实地运转的数据中心PUE较政策要求仍有较大差距,若想严峻达成政策目的,液冷迫在眉睫。
4)全生命周期角度看,固定IT需求下液冷系统具有较强运营优势。数据中心全生命周期本钱(TCO)包括 CAPEX 和 OPEX 两部分,详细包括了数据中心配套设备置办本钱(土建配电等)与建成后的运营支出(利润维度关键是电费与折旧)。总体看液冷相对风冷系统具有较高的建形本钱,以液冷造价0.95-1.05 万元/KW(含室外冷源),风冷造价0.35 万元/KW测算,若NVL 72 单机柜功耗在120W左右,则液冷系统构成本钱为114-126万元(约16万美元),较风冷系统贵78万元。但从运营角度看,思索到液冷系统PUE远低于风冷系统,则对应固定功率的IT设备,液冷数据中心的全体耗电量远低于风冷系统,且该耗电量糜费带来的运营本钱增加将随同数据中心功耗规模的扩展而加快扩展。从经济效益角度看,大规模高功耗数据中心经常经常使用液冷系统将具有较高性价比。
电源:功率密度继续更新,量价齐升、格式优化,注重国产AI芯片电源
AC-DC电源是以后产业重点
从供电环节实质上,电源自身不出现任何能量,只是作为电网中电能的传导,其中心是成功整流与变压两项性能。整流即是成功不同外形电能的转换(直流变交流、交流变直流),变压即是成功电压的升高或降低。此外,针关于特定场景,电源会介入额外性能,如主机电源就要求在散热、监控、电流调理上做额外的性能追加从用途性能分类上,电源可分为嵌入式电源与非嵌入式电源,嵌入式电源通常被直接装置在设备外部或特定空间内,又可分为普通开关电源与模块电源两类,其中模块电源往往是被镶嵌在电路板上。
算力需求飞跃带来用电需求急剧上升
AI需求将带动能耗进入加快增长阶段。耗电量可以依据AI主机的估量销售量及其额外功率启动预测,思索到AI主机的加快放量,估量2026年AI带来的电力消耗有望抵达2023年的10倍。以后算力需求关键由模型训练所奉献,后续随同AI运转加快落地,算力与算力能耗需求增长仍有进一步提速空间。
中心看,随同主机(尤其是AI主机)功耗总额的加快优化,在OCP ORV3规范限制下主机电源必需经过优化功率密度并维持高动力转化率(钛金96%以上)以满足主机运转要求。更好的资料、更优的拓扑、更多的集成是功率密度优化的关键途径,因此电源行业不只享用了总功耗优化带来的需求加快上传,同时也由于资料变卦、散热需求增强等要素带来了单瓦特多少钱优化现象,并助力行业空间加快扩容。此外,思索到近期大陆区域外流片难度加大,随同大陆区域流片芯片占比介入,电源功耗需求有望出现进一步优化趋向。
从通常性能角度看,主机零件品类单一,不同主机芯片性能方案不同。以DGX系列为例,DGX A100零件功耗下限6.5KW,DGX H100 零件功耗下限 10.2KW,NVL 72 零件功耗120KW。仅就AI主机电源而言,可经过各类芯片的全球出货量预估出其每年市场空间的最小值(冗余性能带来不确定性),即24/25年AI主机电源可成功124/296亿元市场增量,相较过去市场规模成功超高速增长。
此外,随同单机柜容纳GPU数量逐渐增多,机柜功耗总额加快优化(NVL 72总功耗已达120KW)。机柜类主机占比的优化在三个层面对供电系统提出更高要求:1)更高性能的供电总线;2)更高压的交流与直流电(如DC/DC模块电压输入可达800V,从而大幅增加发热损耗);3)更低损耗的外部供电电路。从而使得电源取得了额外的溢价才干,市场空间愈加广阔。
国产AI芯片:25年值得等候,注重更可控、更具产品力的AI芯片
GPU具有图形渲染和并行计算两大中心性能。GPU具有数量众多的运算单元,适宜计算密集、易于并行的程序,普通作为协处置器担任图形渲染和并行计算。关于国际来说,民用图形渲染范围买单的人是游戏喜好者,GPU公司要求跟大型游戏厂商启动适配协作,面前的生态支持要求大批任务。关于智算范围,生态要求极高,要求基础算子及运转程序算法的继续积聚和优化,英伟达的CUDA具有相对的生态优势,其次互联才干要求也极高,并且由于海外对国际经常经常使用先进制程有诸多限制,也限制了国际AI芯片的迭代。
我们以为国际AI芯片厂商能否崭露头角,中心看以下三点:
出货量至关关键:国产AI训练芯片研发周期2年, 人员500人以上, 则要求人员费用500*80万*2=8亿, 7nm流片费用1500万美金, EDA、 IP数千万美元, 则一颗芯片全体投入约10亿。依照训练芯片单价7万, 毛利率50%测算, 则要求出货至少抵达3万片才干分摊研发本钱。
构建自主生态:兼容英伟达CUDA在短期可以减轻开发和迁移难度;终年来看,国产GPU假定完全依赖CUDA生态,配件迭代将受英伟达的开发进程约束。关于很多互联网大厂来说,自主生态的路会更长。
产品力:做产品而不是做项目,中心是互联网客户。
风险提醒: 北美经济衰退预期逐渐增强,微观环境存在较大的不确定性,国际环境变化影响供应链及海外拓展;芯片紧缺或许影响相关公司的失常消费和交付,公司出货不及预期;信息化和数字化方面的需求和资本开支不及预期;市场竞争加剧,形成毛利率加快下滑;关键原资料多少钱下跌,形成毛利率不及预期;汇率坚定影响外向型企业的汇兑收益与毛利率;大模型算法更新迭代效果不及预期,或许会影响大模型演进及拓展,进而会影响其商业化落地等;汽车与工业自动化进度不及预期等。
证券研讨报告称号:《人工自动2025年投资战略报告:算力为基,自主可控大势所趋,Agent及B端运转崛起》
报揭露布机构:中信建投证券股份有限公司
本报告剖析师:
于芳博 SAC 编号:S1440522030001
方子箫 SAC 编号:S1440524070009
辛侠平 SAC 编号:S1440524070006
AI端侧运转兴起,国产高端芯片亟需国产化
算力芯片加快更新,高端产能于周期底部积极扩产
英伟达Blackwell优化算力性价比,关注AI主机新的机架式设计带来的机遇
2024年3月,英伟达在GTC会议上发布以Blackwell架构为基础的新产品线,产品性能迎来大幅优化,同时推出新型机架式AI主机产品GB200。Blackwell架构在单芯片训练方面的FP8性能是其上一代Hopper架构的2.5倍,在推理方面的FP4 性能是其上一代Hopper架构的5倍,采纳台积电N4P工艺节点,提供高达20 petaflops FP4的算力。与H100相比,B200的晶体管数量是其2倍多,单个H100最多提供4 petaflops算力,B200成功5倍性能优化,大幅优化芯片性能,与此同时算力性价比在加快优化。Grace Blackwell超级芯片经过900GB/s超低功耗的NVLink芯片间互连,在主机设计上推出了新型机架式AI主机,GB200主机成为了英伟达产品的新外形。
继Blackwell之后,Nvidia Rubin平台于2024年6月Computex大会上亮相。该平台具有新的GPU架构、新的ARM架构CPU Vera、新的HBM4存储颗粒、掩盖12颗HBM4的更大尺寸CoWoS封装,以及NVLink6、CX9 SuperNIC网卡和新一代融合IB网络与以太网的新型交流机X1600。
先进制程、先进封装积极扩产,AI带动半导体进入新的生终年
制程迭代是芯片算力优化的关键要素,AI算力需求的迸发催生了对先进制程的强需求。AI大模型展开对芯片算力提出更高要求,未来更成熟的AGI模型所需算力是如今GPT-4所需算力的1万倍。而处置高算力需求的一种方案是采纳更为先进制程的芯片,由于芯片制程越先进,功耗越低、计算速度越快。如2nm芯片功耗约为16nm芯片的10%,而性能约为16nm芯片的2倍以上。台积电估量其行将推出的N2P节点的功耗或许比N3E节点低30-40%。目前头部Fab厂下一个最先进的工艺节点均为2nm,如台积电方案将其2nm工艺于2025年下半年投产,三星方案在2025年成功移动运转范围的2nm量产,英特尔等效台积电2nm芯片工艺Intel 20A估量2026年量产。
主机需求将逾越自入手机成为先进制程最关键的驱动力。历史上,自入手机的迭代更新推进了芯片制程的不时演进,但随着AI运转的计算需求上升,主机成为关键的算力中心,且对高算力的追求使得其对先进制程出现出越来越高的需求,AI芯片功耗较高,且要求更小的尺寸,因此AI芯片对先进制程的迫切需求将推进主机需求成为先进制程最大的驱动力。Sumco估量,在AI主机出货量微弱增长的推进下,主机对先进制程晶圆的需求量最快将在往年逾越自入手机。
在2nm制程范围,估量台积电市占率将达4成以上,英特尔达3成以上。目前2nm的关键玩家包括台积电、英特尔和三星,台积电将在位于新竹和高雄的工厂介入2nm产能,亚利桑那州的两个晶圆厂也将介入2nm产能。英特尔在亚利桑那州新建两个2nm晶圆厂,在俄亥俄州的两个晶圆厂也将提供支持。三星或许会在韩国和美国的晶圆厂介入2nm产线。依据产能规划,估量未来在2nm制程范围,台积电产能将占40%以上,英特尔占30%以上。
先进制程面临物理约束瓶颈,CoWoS、HBM等先进封装成为提高芯片性能的关键处置方案。AI大展开使得算力需求迸发式增长,提高芯片算力的一种方案是采纳更为先进的制程,但由于量子隧道效应,5年内芯片制程将在1.4nm左近遇到物理瓶颈,因此先进封装成为另一种提高芯片算力的关键处置方案。
3D封装通常特指芯片经过TSV直接启动高密度互连,典型的案例即HBM。同时3D封装也包括3D without TSV:尽管多颗芯片在物理结构上出现3D堆叠外形,但其电气互连上均要求经过基板(除极少数经过键合线直接衔接的键合点),即先经过键合线/凸点衔接到基板,然后在基板上启动电气互连,而非TSV。在某些场景下,此类集成也被归类为2D+集成以与3D TSV启动区分,典型案例即TSMC的InFO_PoP。
CoWoS为HPC和AI计算范围普遍经常经常使用的2.5D封装技术。台积电早在2011年推出CoWoS技术,并在2012年首先运转于Xilinx的FPGA上。尔后,华为海思、英伟达、谷歌等厂商的芯片均采纳了CoWoS,例如GP100(P100显卡中心),TPU 2.0。如今CoWoS已成为HPC和AI计算范围普遍运转的2.5D封装技术,绝大少数经常经常使用HBM的高性能芯片,包括大部分创企的AI训练芯片都运转CoWoS技术。
SoIC具有尺寸减小和性能提高优势,采纳超高密度垂直堆叠,成功高性能、低功耗和最小的RLC,支持亚10微米键合间距的高密度芯片间互连。目前SoIC技术有SoIC-X(无凸点)和SoIC-P(有凸点)两种成功方式。SoIC-X用于高性能设备,如AMD的3D V-cache和Instinct MI300 AI产品。估量到2027年可以组装出顶部为台积电的A16、底部为台积电N2的芯片。经过3微米键合间距的TSV衔接,密度是目前9微米间距的三倍。SoIC-P设计用于低本钱运转,采纳25微米微凸点技术。台积电方案在2025年推出F2B SoIC-P技术,用于将0.2光罩大小的N3顶部芯片与N4底部芯片配对,经常经常使用25微米间距微凸点衔接。到2027年,台积电将推出F2F有凸点SoIC-P技术,能够将N2顶部芯片与N3底部芯片配对,间距为16微米。改良的混合键合技术旨在使台积电的大型高性能计算客户(如AMD、Broadcom、Intel、NVIDIA等)能够为刻薄运转构建超高密度的处置器设计,芯片间距和总占空中积至关关键。
NVIDIA和AMD已预订2024和2025年的一切SoIC产能。NVIDIA的Blackwell架构AI芯片和AMD的MI300系列AI减速器都将采纳SoIC技术,清楚优化计算才干和效率。苹果方案在2025年大规模采纳SoIC技术,用于AI主机和M系列芯片。2023年SoIC的产能约2000台,台积电方案到2024年底,将SoIC产能优化到五千至六千台,2025年底提高至一万台,是2023年的五倍。
AI继续高景气带动CoWoS需求不时优化。2023年一季度以来,AI主机的需求不时增长,促使台积电CoWoS封装产能紧缺,台积电董事长刘德音在2023年股东会上表示,由于AI需求介入,先进封装需求远大于目前产能,迫使公司要尽快介入先进封装产能。
HBM 3D堆叠优化内存性能,GPGPU上运转普遍。随着数据的爆炸式增长,内存墙关于计算速度的影响愈发显现。为了减小内存墙的影响,优化内存带宽不时是存储芯片聚焦的关键疑问。似乎闪存从2D NAND向3D NAND展开一样,DRAM也正在从2D向3D技术展开,HBM为关键代表产品。与传统DRAM不同,HBM是3D结构,它经常经常使用TSV技术将数个DRAM裸片堆叠起来,构成立方体结构,与传统内存相比,HBM的存储密度更大、功耗更低、带宽更高。目前HBM多用于与数据中心GPGPU配合任务,可以取代传统的GDDR。
估量2028年全球先进封装市场规模增至786亿美元,2022-2028年CAGR抵达10.0%。依据Yole数据,2022年全球封装市场中,先进封装占比已抵达47%。估量到2028年,先进封装市场占比将增至58%,规模约为786亿美元,2022年-2028年CAGR约为10.0%,清楚高于传统封装市场的2.1%和市场全体的6.2%。
全球晶圆代工龙头台积电打造全球2.5D/3D先进封装工艺标杆,未来几年封装市场增长关键受益于先进封装的扩展。台积电在先进封装上已取得了可观的支出体量,技术规划也进入关键节点,未来投入规模将继续加码。在OSAT厂商中,日月光VIPack先进封装平台包括六大中心技术,安靠推出FCMCM(倒装多晶片模组)、2.5D(TSV)等五大先进封装处置方案。国际长电先进聚焦bumping,Fan-out CSP晶圆级等先进封装,在2.5D/3D先进封装坚持国际抢先,专注存储封测范围,并聚焦倒装工艺(Flip-chip)、POPt堆叠封装技术的研发。
内存带宽成为算力卡口,HBM需求紧迫迭代迅速
算力芯片配套HBM壁垒高,国外部分厂商具有相关技术贮藏。TrendForce数据显示,2022年三大原厂HBM市占率区分为SK海力士50%、三星电子约40%、美光约10%。NVIDIA H100、A100主采HBM2e、HBM3,H200主采HBM3e。以H100为例,搭载HBM3技术规格,其中传输速度也较HBM2e快,可优化全体AI主机系统运算效力。国际方面,目前没有能够消费契合HBM要求的内存颗粒厂商,封测、资料、设备等供应商具有相关技术贮藏。
从HBM的消费工艺来看,DRAM颗粒为定制的DRAM颗粒,工艺难点在于封测。TSV、大规模回流模塑底部填充(MR-MUF)、自对准、混合键合等工艺很大水平上影响HBM的性能和良率。
(1)TSV:不采纳传统的布线方法来衔接芯片与芯片,而是经过在芯片上钻孔并填充金属等导电资料以容纳电极来垂直衔接芯片。制造带有TSV的晶圆后,经过封装在其顶部和底部构成微凸块(Micro Bumping),然后衔接这些凸块。由于TSV支持凸块垂直衔接,因此可以成功多芯片堆叠。最后,经常经常使用TSV接合的堆栈有4层,后来介入到8层。最近,一项技术使得堆叠12层成为或许,SK海力士于2023年4月开发了其12层HBM3。尽管TSV倒装芯片接合方法通经常经常常使用基于热压的非导电薄膜(TC-NCF),但SK海力士经常经常使用MR-MUF工艺,可以增加堆叠压力并成功自对准。这些特性使SK海力士能够开收回全球上第一个12层HBM3。
(2)MR-MUF:将半导体芯片堆叠起来,并将液体维护资料注入芯片之间的空间,然后硬化以维护芯片和周围电路的工艺。与在每个芯片堆叠后运转薄膜型资料相比,MR-MUF是一种更高效的工艺,并提供有效的散热。目前SK海力士关键经常经常使用MR-MUF工艺消费HBM2e/3/3e,使得其抢先于三星电子和美光,后者关键采纳TC-NCF工艺。MR-MUF工艺要求经常经常使用液态环氧树脂(EMC),目前全球仅日本namics独供。除EMC外,HBM封装还要求底部填充胶用于FC工艺,采纳PSPI作为硅中介层中RDL的再钝化层,还要求IC载板、DAF、Solder ball等资料。
(3)自对准:在 MR-MUF工艺时期经过大规模回流将芯片重新定位到正确的位置。在此环节中,热量被施加到芯片上,形成相关凸块在正确的位置熔化并硬化。
(4)混合键合:C2W混合键合具有多种优势,①支持无焊料键合,增加键合层的厚度、缩短电气途径并降低电阻。因此,小芯片可以高速运转,就像单个芯片一样。②经过直接将铜与铜接合,可以显着减小凸块上的间距。目前,经常经常使用焊料时很难成功10 um或更小的凸块间距。但是,铜对铜直接键合可以将间距减小到小于1um,从而提高芯片设计的灵敏性。③先进的散热性能。④上述的薄粘合层和细间距影响了封装的外形因数,可以减小封装尺寸。目前混合键合关键用于单层键合或两个芯片面对面堆叠,SK海力士2022年用混合键分解功了8层HBM2e的堆叠,正在开发用于更高密度、高堆叠HBM的混合键合。
供需继续紧缺,HBM挤压DRAM产能。从需求端看,云计算厂商将更多资本开支投入AI基础设备,2024年CSP的资本开支增速在30-40%,关键来自AI推进,传统主机需求基本持平,估量2025年CSP资本开支维持大幅增长。算力需求的加快增长,算力卡的数量和性能加快更新,最终带来的是算力芯片和HBM需求的加快增长。结合海外存储厂商和咨询机构的预测,我们以为2024年HBM市场规模抵达160亿美金,同比增长300%,2025年抵达320亿美金,同比增长100%。从供应端看,HBM供应依然紧缺,在传统DRAM库存修改的状况下,HBM由于AI主机的微弱需求,挤占DRAM产能的现象还在继续,涨价继续。
HBM加快迭代,HBM4行将进入流片阶段。结构上,2025年HBM3e将占据主导,依据SK海力士,2024年其HBM3e支出将占HBM支出一半以上,2025年12层HBM3e供应量将逾越8层产品,12层HBM4方案于25H2发货。(1)HBM3e:三大原厂相继推出12Hi产品,这些12Hi的HBM估量用在英伟达的B300A(B200A Ultra)和B300上。(2)HBM4:三星、海力士方案24Q4末尾HBM4的流片,估量2026年用在英伟达下一代的Rubin芯片上。
高速光模块PCB继续更新,CPO方案短期影响有限
光模块(Optical Modules)作为光纤通讯中的关键组成部分,是成功光信号传输环节中光电转换和电光转换性能的光电子器件。光模块的任务原理如图:发送接口输入必需码率的电信号,经过外部的驱动芯片处置后由驱动半导体激光器(LD)或许发光二极管(LED)发射出相应速率的调制光信号,经过光纤传输后,接纳接口再把光信号由光探测二极管转换成电信号,并经过前置加大器后输入相应码率的电信号。电信号要转化为光缆可传输的光信号则要求一个转化器件,这就是光模块。
从结构上看,光模块由三大部分组成,区分是光电器件(TOSA/ROSA)、贴有电子元器件的电路板(PCBA)和LC、SC、MPO等光接口(外壳)。
光模块PCB本钱占比在3-5%,速率传输区PCB设计和基材选材和影响光模块传输速率
光模块PCB是光模块中的关键组件,它承载着复杂的高速信号传输义务。依据招股书披露,光模块本钱关键由光器件、电路芯片、PCB板以及外壳构成。其中,光器件占光模块本钱最高,在70%,电路芯片15-20%,PCB本钱占比在3-5%。
从结构上看,光模块PCB基本都可以分为四个区域,区分是接口区,信号传输区,电芯片BGA区与及光芯片Bonding区。
(1)接口区:接口区也即是经常所说的“金手指”,PCB上为电衔接口,作用为将光模块内电信号与外接设备电信号启动互换传输的区域。作为接口,它须与拔出的设备启动适配,因此其在物理外形会由于数据传输特定的要求的有必需变化。
(2)速率传输区:速率传输区起到衔接接口区和电芯片区域的作用,其是影响光模块传输速率极为关键的部分。通常来说,不同封装方式,调制方式的光模块(实质反响的是光模块的传输要求)对速率传输区内传输线的数量与单通道的传输速率均有特定的要求。以400G光模块为例,其关键采纳QSFPDD或OSFP封装,8收8发,单通道传输50Gbps,采纳PAM4调制,有效提高了信号传输效率。
PCB基材选型与设计影响光模块传输速率,采纳mSAP与SLP工艺。与速率传输区关联最大的是PCB基材的选型,不同协议下对应的资料等级案例。与速率传输关键的另一大关键要素即为信号传输线的设计,随着速率的优化,由于传输协议的限制,光模块的性能密度也在不时介入,因此PCB层数也在不时介入,相同由于板厚在协议中的规则,每层的介厚也在不时增加,由于婚配阻抗,传输线线宽也不时收窄。由于金手指互联与孔传输的反射要求,综合种种要素,形成高端光模块PCB必需走向恣意层互联及SLP或mSAP工艺。
(3)芯片衔接区。芯片衔接区包括电芯片(DSP)封装区与光芯片Bonding区。
光模块速率继续更新,PCB配套高速化、高散热、细线化设计:
展望未来,光模块的展开关键是随同着运转市场对其高传输速率、小尺寸封装、低功耗、长距离的要求而展开。这也就对应其对PCB的要求,也即是高速化、微孔细线化、高散热性。
依据官方,其800G光模块产品PCB构成如下:依据方正科技官方数据,该800G光模块PCB层数为10层,采纳的基材为联茂EM890K,该基材具有极低的介电常数和损耗因子,且热传导性很高,有利于优化散热效果。其交货套板尺寸为85mm* 210mm,但板厚仅有1.0mm,最小线宽/线隙为2.5mil/2.5mil。
如下图所示,传统的光模块作为易损部件,出于便于维修思索采纳热插拔的方式,但热插拔方式下,光模块光引擎距离交流芯片很远,电信号在PCB中走线很长,在高速尤其是800G光模块等场景下,PCB走线过长构成信号劣化,构成传输瓶颈。
由于网络设备传输速率带宽继续介入,传输系统对传输链路的损耗要求越来越严,为了尽或许地降低网络设备的自身任务功耗以及散热功耗,NPO/CPO技术应运而生。
CPO(Co-packaged optics),也即是共封装光学,行将交流芯片和光引擎共同装配在同一个Socketed(插槽)上,构成芯片和模组的共封装。NPO(Near packaged optics),也即是近封装光学,是将光引擎与交流芯片分开,装配在同一块PCB基板上。
显而易见,NPO是过渡阶段,更容易成功,也更具开通性,但CPO是终极外形。CPO技术可以成功高速光模块的小型化和微型化,可以减小芯片封装面积,从而提高系统的集成度。CPO将成功从CPU和GPU到各种设备的直接衔接,从而成功资源池化和内存分解,还可以增加光器件和电路板之间的衔接长度,从而降低信号传输损耗和功耗,提高通讯速度和质量。
NPO/CPO面前底层是基于硅光技术。硅光,是以光子和电子为信息载体的硅基光电子大规模集成技术,也即是把多种光器件集成在一个硅基衬底上,变成集成“光”路,构成了微型光学系统。
从直接的结果来看,NPO、CPO与传统的可插拔方式相比,因光引擎嵌入交流机外部,光模块处PCB增加,直观上会利空光模块PCB消费企业。
CPO短期受供应链多要素制约,难以大规模运转,对传统光模块PCB企业影响有限。
CPO技术途径经过增加能量转换的步骤,在相反数据传输速率下可以比传统热插拔光模块增加约50%的功耗,将有效处置高速高密度互连传输场景下,电互连受能耗限制难以大幅优化数据传输才干的疑问。此外,相较传以II-V资料为基础的光技术,CPO关键采纳硅光技术具有的本钱、尺寸等优势,为CPO技术途径的成功运转提供了技术保证。
但是,CPO短期也有许多亟待处置的关键技术,如何选择光引擎的调制方案、如何启动架构光引擎外部器件间的封装以及如何成功量产可行的高耦合效率光源耦合。由于目前的技术与产业链尚不成熟等要素,CPO短期内难以大规模运转。
其次,CPO的技术路途在逐渐推进的环节中本要求数据中心全体产业链的协同推进,其中触及到的环节在现有光模块产业链的基础上估量还要求失掉交流芯片及设备厂商,以及各元器件厂商的协作。依据产业链调研,现阶段不少光模块PCB企业也在介入光模块企业硅光相关的产品的协作预研。我们以为即使后续CPO方案之间浸透,光模块PCB企业仍有望在产业链更新的对应环节受益。
高速光模块PCB玩家将呈马太效应。光模块PCB产品具有信号传输速率高,线路密度窄、散热要求初等特点,在光模块继续向1.6T/3.2T更新环节,PCB工艺难度减速优化(mSAP工艺),具有极高的壁垒,能够介入的厂商会逐突变少,马太效应会逐渐显现。此外,在商业方式端,光模块厂商可以选择板厂,光模块企业市场格式相对集中,因此前期继续深耕头部光模块企业有望继续受益客户端产品的更新。
风险提醒:
1、未来中美贸易摩擦或许进一步加剧,存在美国政府将继续加征关税、设置出口限制条件或其他贸易壁垒风险;2、AI抢先基础设备投入了大批资金做研发和树立,端侧尚未有杀手级运转和刚性需求出现,存在AI运转不及预期风险;3、微观环境的不利要素将或许使得全球经济增速放缓,居民支出、置办力及消费志愿将遭到影响,存在下游需求不及预期风险;4、大宗商品多少钱仍未企稳,不扫除继续下跌的或许,存在原资料本钱提高的风险;5、全球政治情势复杂,关键经济体争端激化,国际贸易环境不确定性增大,或许使得全球经济增速放缓,从而影响市场需求结构,存在国际政治经济情势风险。
证券研讨报告称号:《电子行业2025年投资战略展望:AI端侧运转兴起,国产高端芯片亟需国产化》
报揭露布机构:中信建投证券股份有限公司
本报告剖析师:
刘双锋 SAC 编号:S1440520070002
庞佳军 SAC 编号:S1440524110001
范彬泰 SAC 编号:S1440521120001
孙芳芳 SAC 编号:S1440520060001
乔磊 SAC 编号:S1440522030002
章合坤 SAC 编号:S1440522050001
郭彦辉 SAC 编号:S1440520070009
王定润 SAC 编号:S1440524060005
何昱灵 SAC 编号:S1440524080001
2025年计算机年度战略:百炼成金
AI商业化价值逐渐凸显,算力需求助推产业减速向上
算力需求继续高增,国产算力产业有望减速展开
全球AI市场规模继续增长,国际大模型算力需求近百亿美元
AI时代算力范围投资规模加快扩张。 2022年底ChatGPT引爆AI浪潮,海外外云厂商积极投身AGI才干树立,大幅优化资本开支用于AI算力基础设备推销。依据弗若斯特沙利文《2024中国自动算力行业白皮书》,2023年全球人工自动市场总投资额抵达1835亿美元,同比增长38.5%;中国人工自动市场2023年总投资额打破190亿美元,占全球总量10.5%,2019-2023年复合增速抵达43.4%。
市场规模方面,全球2023年生成式人工自动全体规模约675亿美元,同比高增约70%,其中配件奉献近90%;展望未来,生成式人工自动市场有望加快展开,软件及运转服务端占比将有所优化,但配件端仍占据较大份额,估量2028年全球生成式人工自动市场规模有望抵达5160亿美元,5年复合增速超50%。
通用人工自动减速展开,大模型继续迭代带动巨量算力树立需求。 依据OpenAI、LLaMA等海外头部大模型厂商地下的模型训练相关数据,可以发现随着模型的迭代更新,Scaling Law继续失掉印证,算力消耗加快增长,关于算力卡的消耗以及单次训练时长均有所优化。
我国大模型训练及推理算力潜在需求靠近百亿美元。 训练端,依据国度数据局局长地下发言,我国10亿参数量以上的模型数量已超100个,头部厂商如阿里、华为等开收回了具有多模态才干的万亿级参数模型,其他中小厂商大模型体量也多在千亿级别。我们区分计算多模态类大模型以及普通大模型训练端潜在需求,其中多模态大模型假定参数量及Tokens数量均为1万亿个,单次训练周期30天;普通大模型参数量及Tokens数量区分为1000亿、2000亿个,单词训练周期20天。以H100算力芯片测算全体需求,依据OpenAI、谷歌宣布的相关论文,假定算力效率由45%逐渐优化,最终测算可得2025年我国大模型相关的训练端算力需求约为等效14.7万张H100芯片,若按单卡多少钱3.5万美元预算,对应市场规模约为51.6亿美元。
基于训练侧的部分假定,推理端需求将随着大模型才干继续迭代以及用户数量增长而优化。 若多模态大模型及普通大模型日活用户均参考每日查询10次,单次查询消耗1000个Tokens,同时思索推理端需求相对集中,最终测算可得2025年我国大模型相关的推理端算力需求约为等效11.0万张H100芯片,若按单卡多少钱3.5万美元预算,对应市场规模约为38.4亿美元,与训练端兼并计算市场规模靠近百亿美元。
受益国际外双重驱动,国际算力需求继续迸发
(1)政策推进国际算力树立减速展开,运营商加大推销力度
顶层政策推进自动算力树立减速。 2023年工信部结合六部委印发了《算力基础设备高质量展开执行方案》,要求到2025年全国算力规模逾越300EFLOPS,其中自动算力占比要求抵达35%,成功东西部算力平衡协调展开。依据详细目的推算,2023-2025年新增算力规模80EFLOPS,其中自动算力规模50EFLOPS。往年以来,国度级、中央级自动算力基础设备相关促进政策频出,国资委于2月召开“AI赋能产业焕新”央企AI专题推进会,要求央企发扬带头作用,放慢树立一批自动算力中心,发扬跨央企协同创新平台作用,更好促进人工自动产业展开。中央层面,北京、上海、广东等二十余个省份往年发布了自动算力树立相应规划,分阶段提出智算算力树立规模要求,北京、江苏、福建等地还推出了“算力券”、创新奖励等资金补贴支持政策,吸引企业投资树立AI算力,促进产业展开。
三大运营商继续推进智算范围投资,AI主机推销数量及国产化比例均优化。 继往年4月中国移动落地约8000台基于昇腾芯片的AI主机、中国联通落地约2500台基于昇腾芯片的AI主机后,近期中国电信在其官方推销网站上发布了2024-2025主机集采中标结果。依据公告,电信本次算计推销约15.6万台主机,其中AI主机数量算计约1.31万台,国产化比例52.1%;全体国产化比例抵达67.5%。电信此次AI主机推销台数逾越去年10月约4200台的AI主机集采,也逾越了移动此前的8000台以及联通的约2500台,成为目前为止运营商最大规模的AI主机集采。国产化比例方面,以中国电信为例,其2020年起末尾独自将国产化主机列入招标目录,当年国产化比例约为20%,2021-2024年国产化比例逐年优化,区分约为26.7%、27%、47%、67.5%。
运营商智算中心树立减速落地,支持AI大模型训练推理。近期,运营商投资树立智算中心项目陆续开工或投入经常经常使用,包括移动算力中心北京节点(智算规模超1000P)、联通智算中心(首个全液冷国产超万卡智算集群,机架数1.5万)、电信长三角(芜湖)智算中心(超8万个规范机柜服务才干)等,运营商智算才干规划继续深化。
(2)海外技术封锁&国际产品性能追逐共同助力算力国产化
海外AI技术封锁趋严,国产算力展开战烧眉毛。 以后,国际情势复杂,美国对其高端芯片出口限制趋严,2022年10月发布的相关条例使得A100、H100芯片遭到出口管制。尔后,英伟达基于美政府条例限制推出中国特供版芯片A800、H800,但在2023年10月美政府发布新限制条例,进一步压低算力密度及性能规范。目前英伟达满足美政府限制要求的最新中国特供版GPU为H20,其相比H100性能仅有约两成,单卡算力才干低于部分国产算力芯片。随着美国新一届总统大选结果出炉,特朗普估量将于明年一月就职新一届美国总统,参考其此前任期政策主张,在对华政策方面相对保守,估量将对人工自动产业包括芯片设计制造、软件模型等采取更严峻限制措施。以后各国在AI范围加大投入力度,算力作为AI关键基础设备,其国产化进程迫在眉睫。
国产算力芯片性能加快追逐,生态逐渐完善。 尽管全球AI芯片市场简直由英伟达所垄断,但国际厂商基于自身科研才干,也涌现出包括华为、、、壁仞科技、摩尔线程等AI算力芯片企业。国产芯片性能紧追海外厂商,生态搭建逐渐完善,有望受益于国际算力市场增量需求迎来较快展开。
1)华为昇腾
华为昇腾系列AI处置器于2019年发布,包括昇腾910、昇腾310以及昇思MindSpore全场景AI框架,并构成Atlas人工自动计算处置方案,包括模块、板卡、自动小站、主机、集群等丰厚的产品外形,成功端侧、边缘侧、云侧全场景掩盖,且同时支持训练及推理负载。此外,华为结合产业生态,构建华为计算生态体系,与国际头部主机零件厂商展开协作,由协作同伴基于华为AI芯片推出其自主品牌的主机产品,为客户提供更多选择,华为计算协作同伴目前在政府智算中心、运营商主机集采中表现优秀,市场份额抢先。
2)海光信息
海光信息DCU产品兼容“类CUDA”环境,CUDA为英伟达推出的通用并行计算架构,包括相关指令集及并行计算引擎等,海光DCU兼容AMD的ROCm计算生态,CUDA与ROCm生态具有高度相似性,因此海光DCU在产品推行中能够更好的和各类软件成功较好生态兼容。海光DCU产品“深算系列”初代产品深算一号于2021年商业化运转,深算二号及其AI版性能优化清楚,AI版对FP16及INT8算力才干启动优化,市场反响积极。目前最新款DCU深算三号研发进度顺利,估量将于近期推出,有望受益于国际微弱算力树立需求。
3)寒武纪
寒武纪具有先进制程下复杂芯片设计阅历,芯片产品掩盖“端-边-云”侧,公司思元系列芯片关键运转于人工自动计算范围,自2018年发布思元100系列以来,公司继续推进芯片迭代,陆续推出了思元200系列(MLU220、MLU270、MLU290)、思元300系列(MLU370),MLU370是寒武纪首款采纳Chiplet技术的AI芯片,算力、带宽较前代产品成功翻倍以上优化,与国际互联网厂商展开了相应适配协作。据公司微信群众号,全新一代云端AI训练芯片思元590采纳MLUarch05全新架构,实测训练性能较在售产品有了清楚优化,它提供了更大的内存容量和更高的内存带宽,其PCIE接口也较上代成功了更新,估量将更好满足互联网等客户需求。
风险提醒:
(1)微观经济下行风险:计算机行业下游触及千行百业,微观经济下行压力下,行业IT支出不及预期将直接影响计算机行业需求;
(2)应收账款坏账风险:计算机少数公司业务以项目制签单为主,要求经过验收后能够收到回款,下游客户付款周期拉长或许形成应收账款坏账介入,并或许进一步形成资产减值损失;
(3)行业竞争加剧:计算机行业需求较为确定,但供应端竞争加剧或将形成行业格式出现变化;
(4)国际环境变化影响:目前国际情势骚动,关于海外支出占比拟高公司或许构成影响,此外美国不时对中国科技施压,形成供应链安保风险。
新一轮信息技术向物联网转变,科技创新助力各行各业转型更新,以5G、云、AI等为中心的新技术推进全社会数字化革新,为全球经济增长注入新动力。 物联网作为数字经济的关键引擎,随着越来越多的企业和公共服务部署,我们曾经进入了一个以数据为驱动的新时代。 在人工智能技术的推进下,企业能够经过失掉有限数据成功加快创新,制造业应用数据驱动成功转型更新,甚至国度和地域能够基于数据洞察未来商业经济。 在国际,由于拥有庞大的用户基础、数据和运行优势,物联网的部署将进一步激活,特别是在科技创新和资本市场的融合下推出了科创板,为科技创新注入生机。 国际围绕人工智能、AI芯片、机器人、智能家居和生物科技等创新企业迎来严重资本红利。 依据银河证券基金研讨中心的报告,估量将有3000亿基金介入科创板,而中信建投估量2019年科创板公司IPO融资规模约为665亿元。 人工智能作为科技开展的热点和未来科技开展趋向,站在AI风口下,展望2019年,人工智能独角兽企业将备受注目,特别是那些大而美的超级独角兽深受市场喜爱。 假设能登陆科创板,它们将遭到资本的追捧。 以下是部分具有代表性的AI创新企业:1. 机器视觉:国际有四大机器视觉独角兽,区分是商汤、云从、旷视和依图科技。 他们推进AI技术普遍运行,商汤科技还树立了智能视觉国度新一代人工智能开放创新平台。 商汤科技作为四大独角兽之首,估值达45亿美元,甚至有信息指出日本软银投资10亿美元,推进其估值优化至60亿美元。 旷视科技入围《快公司》发布的中国最具创新能企业十强,并更新AI战略,推出河图系统,助力物流、制造业和批发业等产业互联网落地各垂直范围。 2. AI芯片:在物联网时代,智能设备数量加快增长,未来几年衔接物联网设备将高达750亿台,物联网和AI芯片需求剧增,估量将带来数百亿美元市场机遇。 芯片巨头英特尔和英伟达等大肆开发各种物联网设备芯片,互联网企业如谷歌、亚马逊和阿里也进入芯片范围。 在国际造芯热潮中,寒武纪和地平线成为炙手可热的项目,寒武纪成为全球智能芯片范围首个独角兽,地平线则超越寒武纪,成为全球最大的AI芯片独角兽。 3. 机器人:大疆创新在无人机范围享誉全球,成为全球最具影响力的机器人公司之一。 大疆创新已不再局限于消费级无人机,而是拓展到为农业、修建、公共安保等垂直行业开发更多的商用无人机处置方案。 相同降生在深圳的优必选,是全球人形智能机器人领军代表企业,自去年取得腾讯领投的一轮融资后,估值为50亿美元,方案往年IPO,优必选CEO周剑也泄漏选择在国际上市,有望搭上科创板的资本快车。 4. 生命科技:AI技术将开启智慧医疗新时代,生命迷信和大数据结分解为医疗安康开展的趋向。 碳云智能开发的人工智能平台,有助于促进疾病治疗、安康保健、精准营养及相关研讨开展。 碳云智能被视为生命科技范围的明星企业,估值达10亿美元,去年4月就有传在寻求新的一笔10亿美元融资用于支持业务扩张,这一轮融资估值将高达50亿美元。 往年是科技创新的春天,取得政策鼎力支持的行业及新经济基础设备树立范围,如物联网、人工智能、工业互联网等,以新经济为创新迎来开展红利。 在这个新时代,有望催生新一代巨无霸企业。 2019年,我们拭目以待!
版权声明
本文来自网络,不代表本站立场,内容仅供娱乐参考,不能盲信。
未经许可,不得转载。