豆包使用成本“卷”至1/3 火山引擎瞄准智能体“爆发” 催生智算一体机新需求
“正如去年豆包1.0开启了大模型规模调用一样,我也相信豆包1.6和区间定价的新模式,能够让多模态深度思考得到更广泛的调用,让Agent的大规模应用进一步加速。”火山引擎总裁谭待在最新召开的Force原动力大会上表示。
今年以来AI智能体迎来爆发,火山引擎日前最新升级豆包大模型,通过“区间定价”将其使用成本降至三分之一,以期使智能体规模化应用提速。财联社记者获悉,智能体目前已在B端多场景率先落地,模型的智能水平和性价比提升将进一步加速其大规模应用。虽然业内还在针对智能体进行效果评估和持续迭代,但随着智能体爆发,强化学习的算力消耗正在快速攀升,为此软硬件厂商通过生态协作,已推出了云边一体的智算一体机方案。
智能体规模化应用提速
去年底,豆包大模型曾一度引爆AI玩具板块在内的豆包概念股行情,本次Force原动力大会亦受到业内期待,大会召开前夕二级市场上豆包概念股亦出现震荡拉升。而财联社记者在此次大会上看到,在豆包再度升级的基础上,智能体作为重点方向被频繁提及。
“我们实际正处于PC到移动到AI三个时代的变化之中。这三个时代里技术主体在发生变化,PC时代的主体是web,移动时代是APP,AI时代是Agent。”谭待表示。
据了解,深度思考、多模态和工具调用等模型能力提升,是构建智能体的关键要素。火山引擎方面预计,随着大模型智能水平持续提升,智能体正逐渐进入企业核心业务,两到三年之内将带来巨大的生产力提升。
同时火山引擎方面认为,模型更优的性价比将使智能体规模化应用提速。
财联社记者最新获悉,豆包1.6按“输入长度”区间定价,深度思考、多模态能力与基础语言模型统一价格。在0-32K输入区间,豆包1.6的输入价格为0.8元/百万tokens、输出价格为8元/百万tokens,综合成本约为豆包1.5深度思考模型或DeepSeek R1的三分之一。
谈及模型成本,谭待亦对其原理进行了解释:“大模型是按tokens来收费。市面上有不同类型的模型,支持深度思考的、不支持深度思考的、支持多模态的等等,但实际上对于同结构同参数的模型而言,对成本真正影响的是上下文长度,而不是是否开启了思考和多模态功能。”
目前火山引擎已经推出了AI Agent平台“扣子”、企业级智能体构建平台HiAgent等,支持智能体开发应用。大会期间,财联社记者亦注意到了“扣子”与产业链厂商共同推出的多款细分领域应用。具体的应用场景方面,智能体目前已涉足金融风控审核、教育场景辅助教学、制造业等泛企业场景做流程的打通等。
实际上,智能体当下已受到众多厂商的积极加码布局。5月,价格曾炒到10万、一码难求的AI智能体平台Manus宣布开放注册,腾讯、京东、荣耀、昆仑万维(300418.SZ)等随后陆续宣布各自智能体新进展。5月22日上午天工超级智能体上线不久后,昆仑万维更是发布了限流通知。
火山引擎AI生态与智能终端资深解决方案架构师朱成刚表示,火山引擎目前主要聚焦的场景一是大模型核心能力,二是Agent开发支持能力。“在私有化场景里,模型的迭代速度没有那么快,我们重点关注的还是企业如何能在内部私有化场景里落地并发挥价值,因此关键点就成为做一套持续运营、可优化可迭代的智能体体系。”
一位从业者告诉财联社记者,“现在我们看到,如果把大模型只当成Chat bot来聊天的话,其实它真正帮助我们的效果并不见得很好。而Agent to B的利用效果会更好一些,尤其在跨多个不同的IT系统时帮助会更大。”
“真正面向企业的业务,绝对不是一个大模型就能全部解决的。”另有业内人士在现场这样表示。
据朱成刚介绍,“我们最终提供的服务就是一个智能体应用,想做出这样的应用需要大量工具和能力的支持,最简单的方式就是大模型外部工具,目前是RAG、Function call和MCP。当前阶段MCP和A2A等开放智能体生态虽然有了标准,在实际使用中还是存在一些问题,所以还是多种接入形态共存。”
火山引擎方面同时认为,针对智能体的效果评估和持续迭代,将是长期的重要方向。
算力端催生一体机新需求
AI应用端智能体的落地提速,将如何推动算力端演进?
财联社记者在大会现场注意到一个基于AI PC的案例:英特尔和“扣子”打造了基于AI PC的端云协同智能体,其典型应用场景如执行报销、挂号、订票等任务的事务助手。
一位英特尔展台人士向财联社记者展示了借助这一智能体在“微医”平台挂号的流程。该展台人士称,面对智能体爆发趋势,“我们在AI PC上提供了更多工具链,帮助ISV(注:指独立软件供应商)的应用跑在AI PC上,不用耗费云端算力,就实现在轻薄本上跑比较重的AI应用。”
不过实际场景中的算力需求不仅限于此。
“在过去的几个月,我们看到强化学习的算力消耗正在快速攀升。我们也做一个大胆的预测,强化学习带来的算力和资金消耗,有可能在2027年附近,逼近整个行业在预训练上的投入。”火山引擎智能算法负责人吴迪在大会期间透露。
财联社记者从火山引擎方面获悉,随着大量智能体加速进入现实世界,强化学习愈加重要,需考虑GPU/CPU资源混合编排、异构算力调度、异步推理等。
一位英特尔技术专家现场告诉财联社记者,“一些企业级客户的需求是在本地部署模型,又担心能力演进无法跟上模型快速迭代的步伐。但若使用云上模型,又需考虑隐私数据、保密信息。另外,当企业决定内部部署时,一定会考虑性价比。”
财联社记者注意到,英特尔、火山引擎HiAgent、华胜天成(600410.SH)三方联合打造了智算一体机方案。
据了解,算力方面,该方案基于英特尔至强处理器和多张英特尔锐炫显卡,锐炫Pro B60单卡可提供24GB显存;平台层面,HiAgent 2.0覆盖了模型精调、推理优化到智能体开发、编排、运行的全生命周期;服务方面,华胜天成提供需求分析、方案设计、落地实施、运维支持等服务。
值得一提的是,锐炫Pro B60系英特尔近期于台北电脑展上最新发布,相比2023年发布的锐炫A770,显存从16GB增加至24GB。
“一年前大家做企业里的知识问答,上下文长度只要10K就够,我们现在接触到的客户需求超过32K的非常多。这提出了更大的显存需求,因为长的上下文会消耗更多显存,显存对整个应用性能及能够支持的场景也有非常大的帮助。”英特尔方面向财联社记者表示。
财联社记者获悉,一体机形态可分为纯本地部署、云边一体两种。由于云上大模型按tokens收费,商业模式较简单,因此相比需要考虑平台整体成本的本地部署方案,云边一体的一体机胜在性价比。据了解,前述一体机平台既支持7B-72B主流模型,也支持Deepseek V3/R1 671B本地部署。
另外朱成刚提到,一体机客户的重点投入会在硬件方面,软件的预算和成本偏低,建议一体机分成两端进行。“首先提供开发端的核心开发和运营管理能力,然后通过容器镜像或其他打包方式分发到用户客户端,连接显示器就可以完成应用的调用。如果在单个或多个部门的办公或协同场景,也可以做一些简单的规划隔离,保证用户数据隔离,就可以在极低算力成本下跑通整个智能体平台的核心能力。”