当前位置 >> 首页 > 新闻动态 > 最新动态

海德官方·-半导体产业激战:关键角逐开启!

浏览:587

AI人工智能之前所未有的速率于全世界科技范畴掀起厘革海潮,半导体财产竞争日益白热化。于这场全世界科技竞赛中,AI强势鞭策AI办事器财产蓬勃鼓起,并使之慢慢成为半导体范畴的要害疆场,吸引浩繁年夜厂入局。与此同时,跟着技能演进与市场需求变化,AI办事器财产悄然迎来新一轮转变。

AI办事器强势发展,财产链公司有哪些?

AI办事器是专为运行人工智能算法及模子设计的硬件装备,经由过程异构计较架构(CPU+GPU/FPGA/ASIC)实现高机能并行处置惩罚。受益在AI驱动,AI办事器财产增加势头强劲。

全世界市场研究机构TrendForce集邦咨询最新查询拜访显示,2025年AI办事器出货年增加估计将达24.1%,于总体办事器占比为14.8%。2026年因来自云端办事业者(CSP)、主权云的需求连续稳健,对于GPU、ASIC拉货动能将有所晋升,加之AI推理运用蓬勃成长,估计全世界AI办事器出货量将年增20%以上,占总体办事器比重上升至17%。

AI办事器财产链包括上游零部件、中游整合组装与下流运用三年夜环节,触及浩繁财产链公司。

上游零部件——包罗AI芯片、存储器以和其他零部件等。

AI芯片指的是专为人工智能算法设计的硬件加快器,其焦点是冲破传统CPU的算力瓶颈。根据技能分类,AI芯片重要分为GPU、FPGA、ASIC等。于AI办事器范畴,多核CPU卖力使命调理,GPU提供算力焦点,FPGA/ASIC撑持定制化加快。AI芯片代表厂商包括英伟达、AMD、华为海思、海光、寒武纪、壁仞科技、平头哥等。

存储器范畴,年夜容量DDR4/DDR5内存及高速SSD满意数据吞吐需求,HBM晋升内存带宽、降低功耗、优化空间占用,显著加强了AI办事器的机能与能效,代表厂商包括三星、SK海力士、美光等。

其他零部件包括收集、PCB、电源、散热等,此中液冷散热技能可以解决多GPU高功耗散热问题,代表厂商包括Cooler Master(酷冷至尊)、AVC(奇鋐科技)、英维克、维谛技能等。

中游整合组装——将芯片组装进办事器硬件中,并增长须要的收集、存储装备,形成完备的AI办事器解决方案,分为ODM厂商,如广达、工业富联、英业达、纬创、Supermicro;以和品牌办事器厂商,如戴尔、HPE、甲骨文、惠普、遐想、海潮信息、华为、新华3、超聚变等。

下流运用范畴——包括互联网厂商、运营商、通讯、当局、制造业、教诲、金融与医疗等。

AI办事器财产迎剧变时刻,厂商怎样应答?

此前,AI年夜模子强势鞭策之下,AI芯片市场连续求过于供,激发晶圆代工、进步前辈封装厂商连续扩产。如今,跟着产能陆续开释,芯片供给问题获得极年夜改善,再也不是制约AI办事器成长的因素。与此同时,缭绕ASIC、液冷散热、Nearline SSD等范畴,AI办事器财产开启新一轮厘革。

ASIC研发潮来袭

当前全世界AI芯片市场由英伟达、AMD等公司推出的GPU产物主导,跟着AI办事器需求快速扩张,全世界年夜型云端办事业者(CSP)正加快自研AI ASIC。

google是自研芯片结构比例较高的厂商,其针对于AI推理用的TPU v6e已经在上半年慢慢放量并成为主流。此外,google与博通互助TPU v7p(Ironwood),锁定练习运用,估计在2026年慢慢放量,将接替TPU v6e(Trillium)的焦点AI加快平台。

AWS(亚马逊云科技)自研芯片今朝以Trainium v2为主力平台,AWS已经启动差别版本的Trainium v3开发,估计在2026年陆续量产。

Meta乐成部署首款自研AI加快器MTIA后,正与Broadcom配合开发下一代MTIA v2,估计在2025年第四序量产。Microsoft则计划由GUC协助量产Maia v2,估计在2026年上半年启动。

除了了CSP以外,芯片巨头英特尔近期也正式进军ASIC芯片范畴。英特尔公布建立“中心工程集团”,整合内部设计与制程资源,并启动ASIC与设计办事营业。外界遍及认为,这是英特尔继CPU、GPU与代工以后的新运营支柱,方针于在切入快速发展的客制化芯片市场。

与此同时,华为、昆仑芯、寒武纪、平头哥等一众厂商一样踊跃结构ASIC市场,ASIC研发潮不停鼓起,将来ASIC市占率有望不停爬升。

企业级SSD需求急升

TrendForce集邦咨询指出,将来两年AI基础举措措施的建置重心将更倾向撑持高效能的推理(Inference)办事,于传统年夜容量HDD严峻求过于供的环境下,CSP业者纷纷转向NAND Flash供给商追求解方,催生专为AI推理设计的Nearline SSD,以满意市场的火急需求。

各年夜NAND Flash供给商正加快Nearline QLC NAND Flash产物的验证与导入。QLC技能能以更低的成本贮存更多资料,成为满意年夜容量需求的要害。此外,供给商也正扩展QLC SSD的产出,估计2026年将慢慢提高产能使用率。跟着Inference AI运用扩张,估计这股需求热潮将延续到2027年,是以2026年企业级SSD的供给将呈急急状况。

厂商方面,本年10月SK海力士对于外展示下一代NAND闪存产物战略,此中,AIN D(Density)是一款旨于以低功耗、低成本实现海量数据存储的高容量解决方案,尤其合用在AI数据的存储。相较在现有基在QLC的TB(太字节)级的SSD,AIN D可将存储容量晋升至最高PB(拍字节)级,同时统筹SSD的高速机能与HDD的经济性,成为一种中间层存储产物。

液冷散热成为AI办事器新选择

跟着AI年夜模子成长,AI芯片机能连续晋升的同时,功耗也于以每一代1.5-2倍的速率增加。业界吐露,英伟达B200单颗芯片功耗已经经上升至1000W,当AI芯片功耗跨越700W时,传统的风冷效果将年夜幅降低,没法满意需求,液冷技能依附高效散热与节能上风,逐渐成为AI运用的新选择。

液冷散热重要分为直接式及间接式,间接式经由过程冷板与发烧部件接触,液体于冷板内畅通,进而带走热量,是当前主流的液冷散热技能;直接式是指液体与发烧部件直接接触,又可以分为浸没式及喷淋式。

于本年10月召开的2025年OCP全世界峰会上,液冷已经成为新AI机架的默许配置,多家厂商展示了新一代液冷技能方案。

纬颖联袂纬创展示了新一代AI办事器以和进步前辈直接液冷(Direct Liquid Cooling)解决方案。纬颖与纬创是首批提供NVIDIA GB300 NVL72体系的互助伙伴之一。该款液冷、机柜级AI体系,搭载72颗NVIDIA Blackwell Ultra GPU,并配备NVIDIA ConnectX-8 800Gb/s SuperNICs,为推理模子提供强盛的运算机能。

Frore Systems发布了面向AI数据中央的立异方案:LiquidJet™液冷板,具有机能晋升与成本优化的特色,能降低GPU温度,每一秒处置惩罚更多AI令牌,消弭热降频;同时TCO更低、PUE更优,将冷却开消转化为竞争上风。

AMD于OCP时期公然展示了其面向人工智能与数据中央市场的全新“Helios”机架级平台,引入了快速断开式液冷体系,可于不拆卸主机组件的环境下举行维护,从而提高数据中央的运行效率。

除了此以外,于近期举办的全世界技能年夜会(GTC 2025)上,英伟达初次暴光了Rubin办事器及互换机液冷架构,与以往架构比拟,Rubin架构的液冷设计越发繁杂及紧凑,实现了100%的液冷笼罩。

业界指出,跟着AI技能不停成长,AI办事器液冷需求也将不停发作,将来将有更多高效、节能、智能的液冷解决方案呈现。

结 语

跟着各年夜厂商纷纷加年夜研发投入、优化产物结构,AI办事器市场的竞争将愈发激烈。于将来市场的风云幻化中,谁能捉住机缘,鞭策AI办事器以和整个AI财产连续成长?咱们拭目以待。

-海德官方

下一条
热门标签
分享到
在线电池裸电芯外观检测 iis7站长之家