首页 资讯 正文

AI算力需求涌向模型推理,国产芯片站上竞技台了

体育正文 32 0

AI算力需求涌向模型推理,国产芯片站上竞技台了

AI算力需求涌向模型推理,国产芯片站上竞技台了

刚刚结束的COMPUTEX电脑展上,英伟达CEO黄仁勋(huángrénxūn)笑着对听众说,“你(芯片)买得越多(duō),赚得越多。”引来一阵笑声。 这句话的背景是,全球科技厂商在AI热潮下继续(jìxù)重金投入建设数据中心或算力中心。黄仁勋在演示文档上(shàng)写着,英伟达正在驱动(qūdòng)全球万亿美元级别的企业AI IT投资。 数据中心建设热潮下(xià),现在看来,AI算力需求的变化与年初一些业内人士预计的不(bù)太一样。DeepSeek对训练算力资源的节约,并未让整体算力需求减少(jiǎnshǎo)。 不过,还有一个变化(biànhuà)发生了,随着DeepSeek推动AI走向应用,用于(yòngyú)推理的AI芯片占比正在升高。 市场研究机构(jīgòu)IDC中国副总裁周震刚(zhōuzhèngāng)告诉第一财经记者,2024年中国数据中心加速卡中已有半数以上是推理卡,DeepSeek出现后,今年推理芯片占比预计还会增加(zēngjiā)。 这种芯片(xīnpiàn)结构变化,可能(kěnéng)会对AI芯片市场造成深远影响,特别是在中国市场。推理环节对AI芯片性能等的要求较(jiào)低,国产AI芯片也可以使用,在英伟达出口受到限制的情况下,可能促成国内AI芯片的组成(zǔchéng)发生变化。 周震刚透露,去年国内数据中心加速卡市场中,国产算力占比大约(dàyuē)三成,预计今年上半年占比应该会超(huìchāo)四成。 第一财经记者了解到,这波数据中心或算力中心建设潮中,需求方来自高校、企业(qǐyè)等,AI应用十分多元。而(ér)面向算力需求的变化,已有算力中心在计划调整(tiáozhěng)芯片,使芯片组成更加多元、向模型推理倾斜。 数据中心或算力中心建设还在进行。IDC数据显示,中国加速计算服务器市场出货量2024年(nián)(nián)同比增长(zēngzhǎng)97.3%,预计2025年增长52.9%。 在中国招标投标公共服务平台,第一财经记者(jìzhě)以智算中心为关键词(guānjiàncí)搜索中标(zhòngbiāo)信息发现,截至今年5月26日,今年国内智算中心中标信息123条,是去年前5个月的2.2倍。这些信息围绕智算服务器设备采购、运维服务、电力(diànlì)模块采购、勘探、基建供配电工程施工等。 从中标信息数量看,国内智算中心建设提速是持续的过程。2023年(nián)(nián)国内智算中心中标信息53条(tiáo),2024年猛增至213条。2024年上半年(shàngbànnián)中标信息71条,下半年增加至142条,显示当年建设项目也在增多。 记者了解到,一些企业和高校有了更多算力(duōsuànlì)需求,部分(bùfèn)高校自购算力卡,部分购买云算力或超算中心算力。 香港科技大学冯诺依曼研究院院长贾佳亚告诉第一(dìyī)财经记者,学校此前购买了一批英(yīng)伟达H800计算卡,香港只有(yǒu)香港科技大学有相对较多的H800,这是能将该研究院做成较大规模(dàguīmó)的背景。即便如此,有算力提供方(fāng)告诉记者,该校在训练大模型,需求比较大,自己的算力不够,也需要其他算力来源。 近日华东理工大学则与腾讯云合作,推动AI与学科融合及科学研究降本增效等。该校副校长王慧锋(wánghuìfēng)告诉记者,高校科研对AI算力(suànlì)的需求增长是必然,该校也在探索AI+科学研究,例如有化学老师将AI算法用于锂电池催化(cuīhuà)设计,并将设计理念提炼出来(chūlái)做成智能体知识库,用于实践教学。目前学校采用(cǎiyòng)混合云架构,部分(bùfèn)算力本地化部署,另有大量计算放到云上,上云而(ér)不是完全自建机房的做法(zuòfǎ)成本更优。王慧锋告诉记者,考虑到需求和数据安全等,目前高校采用私有和混合架构的模式是主流。 去年12月,香港规模最大的数码港人工智能超算(chāosuàn)中心投入服务,香港为(wèi)申请使用者提供资助。记者(jìzhě)了解到,申请使用该超算中心首阶段算力的主体就包括大学和科研机构。 数码港行政总裁郑松岩告诉记者(jìzhě),该(gāi)超算中心目前有1300PFLOPS算力,第二阶段(dìèrjiēduàn)规划算力是1700PFLOPS,今年10月该超算中心算力将提升(tíshēng)到3000PFLOPS。目前已审批通过10个申请(shēnqǐng),这些申请来自大学、科研机构、企业,用途包括(bāokuò)学术研究、生物医疗、材料分析、大模型应用等,到本月底,第一阶段的算力使用率将超95%,预计接下来的申请会越来越多。 “一些大学在做(zuò)教学(jiàoxué)相关项目,一些在研究可商业化的项目。有的大学在研究生物科学相关领域,也需要比较大的算力。目前不少大学是以开发项目为主来申请,个别大学会捆绑几个小项目一起申请,让学生做一些研究。现在(xiànzài)有算力基本(jīběn)是先到先得。” 郑松岩表示。 企业(qǐyè)也需要算力。郑松岩告诉记者(jìzhě),企业应用处于刚开始尝试的阶段(jiēduàn),可以感受到很多(hěnduō)企业还没有下很大决心要完成整个机构的转型,或为此拟定非常严格的时间节点。“前段时间处于一种想用AI,但很多企业还没启动的阶段。很多企业都想用AI来提高效率、降低成本,但AI要直接嵌入企业日常流程中,企业实际上缺乏相应人才配套。”郑松岩表示,香港(xiānggǎng)的人工智能应用爆发期还没到来,随着业界(yèjiè)对AI越来越(yuèláiyuè)熟悉,接下来预计应用会越来越多。 DeepSeek带来的(de)算力需求增长,是大(dà)模型推理对大模型训练的一场“胜利”。过去两年,大模型业界最受关注的一直是训练环节(huánjié)。但开源且性能出众的DeepSeek-R1面世后,更多人开始真正将大模型用起来,促使(cùshǐ)推理需求增长。 这让一些适合(shìhé)推理的芯片用了(le)起来。周震刚向记者表示,去年国内互联网公司、电信运营商采购(cǎigòu)了大量国产(guóchǎn)(guóchǎn)算力卡,但去年采购方发现,国产算力资源不是很好出售。而随着今年上半年DeepSeek应用推开,尤其是国产算力适配DeepSeek后,此前它们采购的国产算力在(zài)今年第一季度已经被DeepSeek占有了。目前电信运营商已在建设新的大规模算力中心,包括基于(jīyú)国产算力的万卡集群。 腾讯是国内最早接入DeepSeek的(de)互联网厂商之一。该公司在(zài)5月的业绩交流会上释放过推理需求增长的信号。 腾讯管理层表示,腾讯有足够的高端芯片来继续训练模型,公司看到对GPU更大的需求是在推理(tuīlǐ)侧。用户推理需求逐渐增长,推理token(词元)的需求比之前预计的更多,AI需求已经超过了(le)GPU资源(所能(néng)提供的算力(suànlì))。 周震刚也发现,DeepSeek出现确实让算力需求改变了(le),主要是(shì)改变了算力需求的结构。他告诉记者,2024年(nián),中国数据中心加速卡有(yǒu)57.6%是推理卡,33%是训练卡。而在DeepSeek出现后(hòu),一些小型公司的算力从训练转到推理。腾讯、百度这(zhè)类平台接入DeepSeek也大大推动了推理芯片的增长,因此预计2025年推理芯片占比还会进一步大幅增加。 郑松岩告诉(gàosù)记者(jìzhě),数码港的人工智能超算中心也在考虑改变算力组成。 “一开始我们主要面向模型(móxíng)训练需求,包括很多(hěnduō)大学那(nà)时候要做模型训练,但实际上,近一年来模型变化很大。” 郑松岩告诉记者,此前很多机构在做基础大语言模型,但在DeepSeek出来后放弃了这(zhè)一路线,转向(zhuǎnxiàng)使用DeepSeek等基础大模型,“我们认为未来做基础大模型的(de)团队会逐渐减少,转向以推理为主,人工智能超算中心的第二阶段正在建构中,接下来做安装、配置(pèizhì)、设计时会更多考虑这部分需求。” 郑松岩告诉记者,推理环节对(duì)芯片算力的要求相对没那么(nàme)大,因此,算力不及英伟达H100、H800的芯片都有可能引进。 推理需求增长让国产算力站上竞技的舞台了(le)。 周震刚告诉记者,2022年和2023年,英伟达占中国(zhōngguó)数据中心加速卡市场的85%~90%,国产(guóchǎn)算力(suànlì)没有太大空间,但在美国政策、国内市场变化等因素影响下,国产算力占比已有大幅提升。 具体而言,2024年中国数据中心加速卡市场中,有65.2%是(shì)英伟达,34.6%是国产算力。“我们现在看到,今年上半年国产算力占(zhàn)比应该会超四成,很(hěn)可能在很短的时间内,国产算力会成为主流,占比超50%。这个(zhègè)比例在两年(liǎngnián)前是无法想象的。”周震刚表示。 在(zài)大模型算力需求以训练(xùnliàn)为主的时候,之所以国产芯片还难以挑战英伟达(wěidá)的地位,既有英伟达芯片算力高、生态好、集群大等原因,也有训练难以兼容异构芯片的原因。周震刚向记者解释(jiěshì),训练时难以同时(tóngshí)用英伟达+国产芯片组成的资源池,只能将训练分成两部分,一部分(yībùfèn)用英伟达卡,一部分用国产卡,但这种训练的效率较低,因此大部分训练现在仍跑在英伟达卡上,只有少数AI厂商基于(jīyú)国产卡算力平台,更多厂商还是在用国产芯片做(zuò)测试性工作(gōngzuò),作为备用方案。但推理可以跑在国产芯片上,“可以根据需求,把面向某个应用的推理或面向某个区域用户的推理放到国产芯片上,可以这么分解。” “过去别人(biérén)会问(国产(guóchǎn)芯片厂商),你跟英伟达H100相比优势在哪里、性价比如何、生态能否兼容?现在这些问题已经没有太大影响了。”有业界分析人士向记者形容,云厂商或(huò)AI厂商现在需要英伟达之外的更多国产芯片方案。除了华为(huáwèi)与运营商合作,其他国内芯片厂商也基本都有芯片出来了,云厂商也在推进自研。周震刚表示,今年一季度需求(xūqiú)火热的DeepSeek一体机中,英伟达芯片占比还是较大(jiàodà),但已有(yǐyǒu)不少基于寒武纪、沐曦等国产芯片。 需求也反映在国产AI芯片(xīnpiàn)厂商业绩上。此前陷于亏损的寒武纪,2024年第四季度开始盈利。今年第一季度,寒武纪营收(yíngshōu)11.11亿元,接近去年(qùnián)全年营收,净利润3.55亿元,实现同比扭亏。 还(hái)有算力(suànlì)中心(zhōngxīn)正在(zhèngzài)考虑国产芯(xīn)片方案,郑松岩告诉记者,推理不需要用到太“高级”的芯片。数码港有一个人工智能实验室,正在测试不同的芯片,除了英伟达,还测试国产的华为、沐曦、壁仞、昆仑芯等。同时,实验室也在测试异构算力调度平台,希望能通过一个平台统一调度不同芯片算力。 腾讯高管(gāoguǎn)则在5月的业绩交流会上表示,公司会同时看进口芯片和国内市面上可用的芯片,在某些情况下,其中一些芯片能做较小(xiǎo)模型的推理(tuīlǐ)。 作为AI芯片巨头,英伟达(wěidá)近期感到紧张不是没有道理的(de)。今年4月,英伟达公告称,美国政府已告知,对于H20芯片及达到H20内存带宽等的其他芯片,若出口至中国等国家和地区需(xū)获得许可证。H20是英伟达针对(zhēnduì)中国市场推出的“特供”版本。 黄仁勋近日表态(biǎotài)称,这种人工智能芯片出口管制是失败的,“事实证明,最初制定人工智能扩散规则的那些基本假设存在(cúnzài)根本性缺陷(quēxiàn)”。他表示,英伟达在中国市场的份额已从美国前总统拜登执政初期的95%降至目前的50%。中国人工智能市场规模可能在未来两到三年内达到(dádào)约500亿美元,对一家美国公司来说,无法进入这一(zhèyī)市场将是巨大的损失(sǔnshī)。 英伟达(wěidá)还在尝试应对中国(zhōngguó)市场上的竞争。近日有消息(xiāoxī)称,英伟达拟新推出一款面向中国市场的AI芯片(xīnpiàn),采用最新的Blackwell架构,定价低于H20,最早于今年6月量产,英伟达官方尚未证实该消息。 (本文来自第一财经(cáijīng))
AI算力需求涌向模型推理,国产芯片站上竞技台了

欢迎 发表评论:

评论列表

暂时没有评论

暂无评论,快抢沙发吧~