从算力竞赛到算法革新:DeepSeek 引领的 AI 新范式
作者:BadBot, IOBC Capital
就在昨晚,DeepSeek在Hugging Face发布了V3版本的更新——DeepSeek-V3-0324,模型参数为6850亿,代码能力、UI设计、推理能力等显著提高。
在刚刚结束的2025 GTC大会上,黄仁勋对DeepSeek给予了高度评价,同时强调,市场之前认为DeepSeek的高效模型会降低对英伟达芯片需求的理解是错误的,未来的计算需求只会更多,而不是更少。
DeepSeek作为算法突破的明星产品,与英伟达的算力供应到底有什么关系,我想先讨论下算力与算法对行业发展的意义。
算力与算法的共生演化
在 AI 领域,算力的提升为更复杂的算法提供了运行基础,使模型能处理更大量数据、学习更复杂模式;而算法的优化则能更高效地利用算力,提升计算资源的使用效率。
算力与算法的共生关系正重塑AI产业格局:
技术路线分化:OpenAI等公司追求构建超大型算力集群,而DeepSeek等则专注算法效率优化,形成不同技术流派。
产业链重构:英伟达通过CUDA生态系统成为AI算力主导者,云服务商则通过弹性算力服务降低部署门槛。
资源配置调整:企业研发重心在硬件基础设施投资与高效算法研发间寻求平衡。
开源社区崛起:DeepSeek、LLaMA等开源模型使算法创新与算力优化成果得以共享,加速技术迭代与扩散。
DeepSeek的技术创新
DeepSeek的爆火绝对与它的技术创新分不开,我将使用通俗的语言解释,使大部分人都看得懂。
模型架构优化
DeepSeek采用了Transformer MOE(Mixture of Experts)的组合架构,并引入了多头潜在注意力机制(Multi-Head Latent Attension, MLA)。这种架构像是一个超级团队,其中Transformer负责处理常规任务,而MOE像是团队中的专家小组,每个专家都有自己的专长领域,当遇到特定问题时,由最擅长的专家来处理,这样可以大大提高模型的效率和准确性。MLA机制让模型在处理信息时能够更加灵活地关注不同的重要细节,进一步提升了模型的性能。
训练方法革新
DeepSeek提出了FP8混合精度训练框架。这个框架像是一个智能的资源调配器,它能够根据训练过程中不同阶段的需求,动态地选择合适的计算精度。在需要高精度计算的时候,它就使用较高的精度,以保证模型的准确性;而在可以接受较低精度的时候,它就降低精度,从而节省计算资源,提高训练速度,减少内存占用。
推理效率提升
在推理阶段,DeepSeek引入了多Token预测(Multi-token Prediction, MTP)技术。传统的推理方法是一步步来,每一步只预测一个Token。而MTP技术能够一次性预测多个Token,从而大大加快了推理的速度,同时也降低了推理的成本。
强化学习算法突破
DeepSeek的新强化学习算法GRPO(Generalized Reward-Penalized Optimization)优化了模型训练过程。强化学习像是给模型配备了一个教练,教练通过奖励和惩罚来引导模型学习更好的行为。传统的强化学习算法在这个过程中可能会消耗大量的计算资源,而DeepSeek的新算法则更加高效,它能够在保证模型性能提升的同时,减少不必要的计算,从而实现性能和成本的平衡。
这些创新不是孤立的技术点,而是形成了完整的技术体系,从训练到推理全链条降低算力需求。普通消费级显卡现在也能运行强大的AI模型,大幅降低了AI应用的门槛,使更多开发者和企业能够参与到AI创新中来。
对英伟达的影响
很多人认为DeepSeek绕过了Cuda层,从而摆脱了对英伟达的依赖。实际上,DeepSeek直接通过英伟达的PTX(Parallel Thread Execution)层进行算法优化。PTX是一种介于高级CUDA代码和实际GPU指令之间的中间表示语言,通过操作这一层级,DeepSeek能够实现更精细的性能调优。
这对英伟达的影响是双面的,一方面,DeepSeek其实与英伟达的硬件以及Cuda生态绑定更深了,AI应用门槛的降低又可能扩大整体市场规模;另一方面,DeepSeek的算法优化可能改变市场对高端芯片的需求结构,一些原本需要H100等GPU才能运行的AI模型,现在可能在A100甚至消费级显卡上就能高效运行。
对中国AI产业的意义
DeepSeek的算法优化为中国AI产业提供了技术突围路径。在高端芯片受限背景下,"软件补硬件"的思路减轻了对顶尖进口芯片的依赖。
在上游,高效算法降低了算力需求压力,使算力服务商能通过软件优化延长硬件使用周期,提高投资回报率。 在下游,优化后的开源模型降低了AI应用开发门槛。众多中小企业无需大量算力资源,也能基于DeepSeek模型开发竞争力应用,将催生更多垂直领域AI解决方案的出现。
对Web3 AI的深远影响
去中心化AI Infra
DeepSeek的算法优化为Web3 AI基础设施提供了新的动力,创新的架构、高效的算法和较低的算力需求,使得去中心化的AI推理成为可能。MoE架构天然适合分布式部署,不同节点可以持有不同的专家网络,无需单一节点存储完整模型,这显著降低了单节点的存储和计算要求,从而提高模型的灵活性和效率。
FP8训练框架则进一步降低了对高端计算资源的需求,使得更多的计算资源可以加入到节点网络中。这不仅降低了参与去中心化AI计算的门槛,还提高了整个网络的计算能力和效率。
Multi-Agent System
智能交易策略优化:通过实时市场数据分析agent、短期价格波动预测agent、链上交易执行agent、交易结果监督agent等的协同运行,帮助用户获取更高的收益。
智能合约的自动化执行:智能合约监控agent、智能合约执行agent、执行结果监督agent等协同运行,实现更复杂的业务逻辑自动化。
个性化投资组合管理:AI根据用户的风险偏好、投资目标和财务状况,帮助用户实时寻找最佳的质押或流动性提供机会。
"我们只能看到很短的未来,但足以发现那里有很多工作要做。"DeepSeek正是在算力约束下,通过算法创新寻找突破,为中国AI产业开辟了差异化发展路径。 降低应用门槛、推动Web3与AI融合、减轻对高端芯片依赖、赋能金融创新,这些影响正在重塑数字经济格局。未来AI发展不再仅是算力竞赛,而是算力与算法协同优化的竞赛。在这条新赛道上,DeepSeek等创新者正在用中国智慧重新定义游戏规则。