做空英伟达的又一理由?蚂蚁集团发布最新AI成果:无需高端GPU,计算成本降低20%,训练1万亿Token只需508万元
长久以来,英伟达凭借高性能芯片构筑起“算力霸权”,在AI模型训练领域占据主导地位。这一局面在DeepSeek问世后遭遇到不小的冲击,如今又面临着新的挑战。
3月初,由蚂蚁集团首席技术官何征宇带领的Ling团队发表了一篇技术成果论文。
论文显示,该团队开发了两款百灵系列开源混合专家(MoE)模型Ling-Lite(总参数为16.8B)和Ling-Plus(总参数为290B)。相比之下,据《麻省理工科技评论》,GPT-4.5总参数为1.8T,DeepSeek-R1总参数为671B。
而惊艳之处在于,Ling团队在模型预训练阶段使用较低规格的硬件系统,将计算成本降低约20%,训练1万亿Token成本从635万元降至508万元,最终取得了与使用高性能芯片(如英伟达H100、H800等)的模型相当的效果。
蚂蚁集团有关人士告诉《每日经济新闻》记者,在模型训练过程中,他们既使用了国产芯片,也采用了英伟达芯片。
但百灵系列混合专家模型的横空出世,让市场再次质疑英伟达的“算力信仰”。HuggingFace工程师Tiezhen Wang在社交媒体上表示,“做空英伟达的又一理由?”
Tom's Hardware发表评论称,蚂蚁集团此次的技术突破清晰展现出中国正坚定地朝着技术独立方向迈进。
针对此事,3月24日蚂蚁集团回应媒体称,蚂蚁针对不同芯片持续调优,以降低AI应用成本,目前取得了一定的进展,也会逐步通过开源分享。
图片来源:蚂蚁集团Ling团队最新论文
蚂蚁重大突破:不使用高端GPU的情况下将计算成本降低20%
目前,蚂蚁集团Ling团队的技术成果论文《每一个FLOP都至关重要:无需高级GPU即可扩展3000亿参数混合专家LING大模型》已发表在预印本平台arXiv上。
蚂蚁Ling团队认为,正如DeepSeek开源发布中分析的“昼夜推理负载不均”问题,在推理服务高峰期,高性能资源同样面临短缺。在长期科研实践中,许多机构都持续面临着高端AI加速卡供应不足的问题。相比之下,性能较低的加速器更易获得,且单价更低。因此,模型需要能在异构计算单元和分布式集群间切换的技术框架,同时在AI Infra部分,在跨集群、跨设备的兼容和可靠层面进行性能优化。
该团队的实验结果表明,参数规模为300B左右的混合专家模型可以在性能较低的设备上有效训练,并在性能上达到与同规模的其他模型相当的水平。
以Ling-Plus模型为例,在实验中,该模型在五种不同硬件配置下完成9万亿Token的预训练任务。经测算,使用高性能硬件设备训练1万亿Token,预计成本高达635万元人民币,而使用低规格硬件系统,成本则可控制在约508万元,节省近20%。
图片来源:蚂蚁集团Ling团队最新论文
在英语理解能力上,Ling-Lite模型在一项关键基准测试中的表现与Qwen2.5-7B相当,优于Llama3.1-8B和Mistral-7B-v0.3。
在中文理解能力上,Ling-Lite和Ling-Plus模型表现明显优于海外模型Llama3.1-8B和Mistral-7B-v0.3。在部分基准测试中,Ling-Plus表现略优于DeepSeek-V2.5,与Qwen2.5-7B相当。
在数学和代码基准测试方面,Ling-Lite的表现与Qwen2.5-7B-Instruct相当,优于Llama3.1-8B和Mistral-7B-v0.3。Ling-Plus的表现优于DeepSeek-V2.5,接近Qwen2.5-72B的水平。
图片来源:蚂蚁集团Ling团队最新论文
在工具使用方面,大多数情况下,Ling-Plus和Ling-Lite在基准测试中均取得了最佳成绩。而工具使用对于大语言模型来说是一项重要且具有挑战性的任务。工具使用能力使模型能够作为AI代理工作、控制机器人系统并与众多软件工具集成。
此外,在安全性方面,Ling-Plus和Qwen2.5-7B表现突出,而Ling-Plus在错误拒绝方面表现更佳。
提高大模型的无害性(harmlessness)通常会导致其有用性(helpfulness)的降低。测试结果表明,Ling-Plus在安全性和错误拒绝之间整体平衡性上表现最佳。
据悉,蚂蚁百灵大模型Ling-Plus和Ling-Lite将计划开源,并应用于医疗、金融等行业领域。
打破英伟达“算力霸权”?
有分析称,百灵系列混合专家模型的推出标志着蚂蚁集团加入AI领域的竞赛。自DeepSeek展示出能够以远低于OpenAI和谷歌投入的数十亿美元成本训练出强大模型以来,这一竞争加速升级。
此前,DeepSeek在技术论文中表示,DeepSeek-V3模型(总参数671B,激活参数37B)总训练成本为557.6万美元,完整训练消耗了278.8万个GPU小时,几乎是同等性能水平模型训练所需的十分之一,堪称“榨干”GPU,也因此引发了资本市场的恐慌。
对此,英伟达CEO黄仁勋在公开场合多次赞美DeepSeek,但其认为,DeepSeek-R1等更高效的模型出现,反而会刺激计算需求增长。
然而,蚂蚁集团正在探索一条新的路径——在无高端GPU的情况下扩展模型训练能力。
百灵系列混合专家模型的横空出世,让市场再次质疑英伟达的“算力信仰”。HuggingFace工程师Tiezhen Wang在社交媒体上表示,“做空英伟达的又一理由?”
图片来源:X
著名硬件媒体Tom's Hardware指出,如果蚂蚁集团此次技术突破意味着实现了(与DeepSeek)类似的AI训练效率飞跃,这极有可能成为(中国)降低对西方技术依赖进程中的又一重要里程碑。
蚂蚁集团有关人士告诉《每日经济新闻》记者,在模型训练过程中,他们既使用了国产芯片,也采用了英伟达芯片。
Tom's Hardware发表评论称,蚂蚁集团此次技术突破清晰展现出中国正坚定地朝着技术独立方向迈进。
彭博资深商业智能分析师罗伯特·李(Robert Lea)同样指出,蚂蚁集团的研究展示了中国在AI创新方面的快速进步,也显示出本土企业正朝着AI自给自足的方向迈进。