最近一短时间以来,被国内一家AI大模型初创公司DeepSeek刷屏了。短短几个月内,DeepSeek推出的两款开源大语言模型——DeepSeek-V3和DeepSeek-R1,不仅在多个关键性能指标上与世界顶级大模型,如Meta的Llama 3.1、OpenAI的GPT-4、Anthropic的Claude Sonnet 3.5等,不分伯仲。
最令人震惊的是,DeepSeek的训练成本远远低于这些传统模型,且所使用的GPU芯片并非顶级配置,但却交出了令人叹为观止的成绩单。
经济学家Ed Yardeni 在一份报告中指出:“DeepSeek在两个月内仅花费 560万美元来开发其DeepSeek-v3模型。”相比之下,Anthropic的首席执行官Dario Amodei 去年提到,建立一个模型的成本为1亿至10亿美元。而且由于这些模型是开源的,在成本和定价上都具有很大的优势。
然而,不容忽视的是,尽管DeepSeek的成本大大低于传统大厂,但其能够取得如此突破的背后,依然离不开GPU这一关键硬件的强力支持。随着AI竞争日益激烈,尤其是训练和推理市场的不断扩展,算力仍将是决定胜负的关键,GPU的作用依然无法被忽视。
美国科技巨头不受影响,继续疯抢GPU
无论是DeepSeek还是对AI的泡沫担忧,都没有减缓企业的投资热情。2025年各家云厂商仍然有着大幅的资本支出。科技公司们为了在AI这场战斗中赢得胜利,近些年来大肆建设数据中心,抢GPU卡,抢电力,新一轮激烈角逐正在拉开:
1月21日,OpenAI宣布了一个新项目:星际之门(Stargate Project),计划在未来四年内投资5000亿美元,在美国为OpenAI建设新的人工智能基础设施,在今年投入首笔1000亿美元。
亚马逊今年计划在基础设施方面投资1000亿美元,高于2024年的770亿美元,是前一年480亿美元的两倍多,绝大部分资金将用于亚马逊网络服务的数据中心和服务器;
微软在2025年1月初宣布,计划在2025财年(截止今年6月份)投资800亿美元建设能够处理人工智能工作负载的数据中心;
谷歌计划在2025年投资750亿美元(较去年的 530 亿美元增长 42%),谷歌首席执行官桑达尔·皮查伊称人工智能的机遇“前所未见,这就是我们加大投入以抓住这一机遇的原因。”
Meta将在今年投资600亿至650亿美元用于AI相关的资本支出。Meta首席执行官马克·扎克伯格表示:“我仍然认为,从长远来看,大力投资资本支出和基础设施将是一种战略优势,我们可能在某个时候会发现其他情况,但我认为现在下结论还为时过早,就目前而言,我敢打赌,建设这种基础设施的能力将是一个重大优势。”
就连过去几年在AI领域很谨慎的甲骨文,2025年也加大了资本支出。甲骨文将在2025年将资本支出比2024年增加一倍,达到约136亿美元。而2021财年,甲骨文的资本支出仅为20亿美元左右。甲骨文首席财务官萨弗拉·卡兹 (Safra Katz) 在2025财年财报会上表示,AI需求推动甲骨文云基础设施收入增长52%,云计算收入本财年有望达到250亿美元。
在七大科技公司中,甲骨文是标准普尔500指数中唯一市值未突破1万亿美元的大型科技公司。与亚马逊和微软不同,甲骨文主要通过租赁大量数据中心而非购买。不过分析师表示,甲骨文这种独特的数据中心策略使其能够有效与资金雄厚的竞争对手竞争,因为这可以使得其资本支出中更大的一部分被投入到购买GPU,而非像微软这样的大规模支出。作为星际之门的一部分,甲骨文此次也担任重要角色之一,与英伟达和OpenAI共同构建和运营该计算系统。
据估计,微软、亚马逊、谷歌和Meta 2024 年的总资本支出将达到2460亿美元,高于2023年的1510亿美元。而2025年的支出可能超过3200亿美元。在科技巨头们如此高额的资本支出中,GPU的采买将占据很大一部分,10万卡级别的集群正逐步成为AI计算的标配。
英伟达无疑是这一浪潮的最大受益者:其三大客户之一Meta正加速建设一座超2GW的数据中心,计划在2025年底前部署超过130万块GPU;甲骨文则在打造Zettascale级别的云基础设施超级集群,支持多达131,072个Blackwell GPU,预计于2025年上半年推出;而微软去年成为全球最大GPU买家,据Omdia分析,微软在2024年采购了多达485,000块Hopper芯片,是其他厂商的两倍,今年800亿美元的预算预计也将大幅投入GPU采购。
2025年,英伟达的Blackwell GPU无疑将成为市场最受关注的芯片。尽管该系列面临一些技术挑战,英伟达仍计划提前推出。据Business Insider报道,Nvidia正积极推动SK Hynix尽早准备其下一代内存,以加速Blackwell GPU的量产。
AMD也在积极加速GPU导入厂商,本次大火的DeepSeek-V3模型的开发中,就使用了AMD Instinct GPU和ROCM软件。MI300系列GPU已成为AMD有史以来增长最快的产品,微软已采购Instinct MI300X。据Nextplatform报道,预计2024年AMD向数据中心的GPU芯片销售额将突破50亿美元,几乎是2023年的10倍。此前,AMD首席执行官Lisa Su曾透露,已有超过100家企业和AI客户积极部署MI300X。
为了快速攻占AI市场,AMD打算提前推出下一代GPU芯片MI350系列。MI350 将在本季度开始向主要客户送样,并将生产出货时间加速到年中。
在这一趋势下,GPU市场或将再度迎来供不应求的局面,只有少数头部厂商能够优先获得供应。
扩产,能否解决GPU缺货之痛?
GPU缺货最大的问题在于产能端。CowoS封装和HBM存储作为GPU的两大支柱,也制约了GPU的产能。据DIGITIMES Research称,受云端AI加速器需求旺盛推动,2025年全球对CoWoS及类似封装产能的需求或将增113%。为此,GPU产业链中关键的两大厂商台积电、SK海力士等行业巨头纷纷加大扩产力度,试图解决供应不足的困境。
由于日益加剧的地缘政治和经济不确定性,台积电的先进封装路线图在2024年经历了多次调整。根据台积电的最新规划,2024年CoWoS的月产能预计为35,000片,到2025年将增加一倍,达到75,000片,预计2026年将进一步增至135,000片。
台积电CoWos产能预测(来源:SEMI Vision)
台积电2024年的CoWoS封装就进行了扩产,比2023年增加了2倍,但是仍然供不应求。根据SEMI Vision的数据,台积电在竹南、嘉义、台中和台南四地的先进封装扩建项目正全力推进。其中竹南先进封装AP6B厂于12月3日获使用证,嘉义厂于今年5月动工。台中AP5B厂预计明年上半年投产,群创台南厂区台南AP8厂(内部代号AP8)则计划于2025年底小规模投产。而经济日报1月20日的最新消息,台积电再投2000亿新台币计划在南科三期新建两座CoWoS封装厂。如果消息属实,加上目前正在建设的嘉科厂,台积电短期内CoWoS厂总数将达到八座,具体包括嘉科一期两座、群创四厂改建两座、南科三期两座,以及嘉科二期规划的两座。CoWoS封装的火热需求可见一斑。
台积电先进封装工厂(来源:SEMI Vision)
另一边,SK海力士也是忙的飞起。作为HBM的主要供应商,SK海力士2025年的HBM产能均已经售罄,因而一边不断加大扩产HBM产能,目标是到明年实现每月14万片晶圆的HBM产能;一边加快产品迭代步伐,正与台积电就16层HBM4进行密切合作,预计2026年下半年开始量产出货。
2024年全年SK海力士营收创历史新高,超过2022年创下的纪录21万亿韩元以上,营业利润也超过了2018年半导体超级繁荣时期的纪录。反观三星,已经将HBM3E市场拱手让给了SK海力士,目前的希望是HBM4,三星打算采用混合键合新技术来实现16层的HBM4。但从目前的进展来看,似乎没那么顺利。不过,三星也在扩产HBM产能,计划在今年年底前将其HBM产能提高至每月14万至15万片晶圆,并在明年年底前进一步提高至每月17万至20万片晶圆。
美光的HBM产品进展还不错,其首席执行官预计2024财年HBM的收入大概在数亿美元,2025财年将达到数十亿美元。美光的目标是明年拿下20%的HBM市场份额。在台湾,美光正在大幅扩产HBM产能,包括台中A3工厂和桃园第11工厂,此外美光还在台湾开设了一个新的办公室,收购了友达光电的台中工厂,将其改建为DRAM生产基地。该公司计划到明年年底将目前每月20,000片晶圆的产量增加两倍至60,000片。
从短期来看,尽管扩产计划已在推进,供需矛盾仍将长期存在。尤其是随着AI和数据中心应用的进一步发展,GPU的需求将持续攀升,单靠现有产能扩充恐难以迅速弥补市场缺口。
GPU不够,ASIC来凑?
GPU芯片短缺已经不是一两年的事了,云厂商们受制于Nvidia好多年了。因而云端巨头皆投入ASIC芯片开发,Google推出的TPU(张量处理器)已经成为行业标杆;亚马逊AWS也推出了Trainium和Inferentia两款自研芯片;微软紧随其后,开发了Maia和Cobalt系列;Meta则以MTIA芯片抢占市场;而OpenAI,据传正与博通合作开发自有的ASIC芯片,以支撑其大规模AI模型的训练需求。
显然这些ASIC已经小有气候。苹果2024年7月发表iPhone AI的首个预览版,其AI模型就是使用Google的TPU(张量处理器)上训练。在亚马逊的AWS Reinvent大会上,其宣布将使用亚马逊自家的自研AI芯片进行模型训练,除夕之外,苹果正评估亚马逊最新的Trainium2芯片,种种迹象表明,ASIC已经能补充一部分GPU的空缺。
ASIC必然有其独特的存在价值。英伟达的B200等GPU芯片,主要通过扩大面积来提升性能,所以会越做越大,而聚焦于提升算力的ASIC芯片,抛弃了GPU中的部分通用功能,成为一种提升效能、降低功耗的选择,换句话说,ASIC具有高性能、低功耗、成本低、保密性和安全性高以及减少电路板大小的优势。
即使是“GPU之王”英伟达,也没有忽视ASIC的潜力。据报道,英伟达已经开始规划ASIC产品线,在台湾招募上千名芯片设计、软件开发及AI研发等领域之人才。黄仁勋直言,NVIDIA借此可进一步扩大客群,或许CSP业者客户会成为NVIDIA的竞争对手,但同时所有的CSP也都还会是NVIDIA的客户,云端客户将离不开NVIDIA。
ASIC盛行时代,也带火了博通和Marvell。博通已经迈向万亿美元市值,Marvell的市值也突破千亿美元大关。这些公司在ASIC领域的快速崛起,不仅得益于自身技术研发能力,还反映了市场对定制化计算解决方案的巨大需求。
随着AI模型复杂度的提升和大规模应用的普及,ASIC市场的规模呈现爆炸式增长。据摩根士丹利预计,AI ASIC市场规模将从2024年的120亿美元增长至2027年的300亿美元,年均复合增长率达34%。博通更乐观地预测,2027年ASIC的市场需求规模将在600亿至900亿美元之间,而Marvell则预计2028年数据中心ASIC市场规模将攀升至429亿美元。
GPU的短缺问题虽难短期内完全解决,但ASIC芯片的崛起无疑为填补这一空缺提供了可行的路径。特别是在云计算和AI领域,ASIC通过定制化设计,在特定应用中提供更高效、更低功耗的解决方案,逐步成为GPU的有力补充。
随着越来越多的云服务商投入到ASIC研发中,未来的计算生态可能会更加多元化。GPU和ASIC将两者互补,共同推动着整个AI和云计算产业的前进。
写在最后
DeepSeek的出现,使得很多人认为对算力以及英伟达不利。但是「信息平权」的一篇分析中的观点是前沿探索(如新模型的开发)和后发追赶(即基于已有成果的改进)所需要的算力需求是不同的。文章引用了《The Bitter Lesson》中的观点,强调算力才是AI研究的根本驱动力。历史经验告诉我们,AI的突破往往来源于算力的扩展,而非单纯的算法创新。随着算力的不断提升,AI的能力将得到质的飞跃。
因此,GPU在未来AI战场上的重要地位,依旧牢不可破。AI行业的未来,依然是算力的较量,无论是DeepSeek这样的新兴公司,还是OpenAI、谷歌、Meta等传统巨头,GPU仍将是支撑他们技术创新与产品突破的基石。2025年,GPU的抢夺战依旧很精彩。