算法冲破算力瓶颈 DeepSeek继续开源 推动AI普及与发展

文章正文
发布时间:2025-02-25 21:52

在DeepSeek开源之前,整个2024年,大模型行业都陷入了算力焦虑。高昂的算力成本让许多企业望而却步,但随着DeepSeek-R1模型的问世和开源,市场热情被重新点燃。除了EP通信库和FlashMLA的优化,DeepSeek还在多个方面进行了算法创新,显著减少了模型对高算力硬件的依赖。例如,通过混合专家架构(MoE)和FP8训练技术优化计算效率,R1模型仅需2048块GPU即可完成训练,纯算力训练成本降至500多万美元,远低于传统大模型的数亿美元投入。

DeepSeek在MoE架构方面的创新包括使用共享专家和路由专家两种专家,提升了模型训练效率。此外,采用FP8混合精度技术替代传统高精度运算,降低了内存需求并提升了计算性能。DeepSeek还摒弃了传统的监督学习微调,采用纯强化学习策略直接优化推理能力,通过群体奖励优化技术动态调整模型输出。

这些革新将推动算力需求的结构性增长,低成本模型加速了AI应用普及,推理算力需求将呈指数级增长。业内多位专家认为,DeepSeek的技术突破不仅体现在性能指标上,更通过效率与成本的平衡推动了AI技术的普惠化。据IDC数据显示,2024年全球人工智能服务器市场规模将达到1251亿美元,2028年有望达到2227亿美元。

在中国市场,智能算力规模预计将在2028年达到2781.9EFLOPS。DeepSeek的出现带动了算力市场的变革和发展,尤其是推理算力市场需求激增。DeepSeek降低了大模型的应用开发成本,让更多中小用户能够接触到这项技术。单机部署解决方案使得他们能够以较低的成本和更简单的部署方式使用大模型。

DeepSeek推动了算力基础设施的发展,各大厂商推出了相关的一体机产品。例如,联想、浪潮云、神州鲲泰等公司均推出了适配DeepSeek模型的一体机。算力服务模式也在从传统IaaS向MaaS升级,预置DeepSeek优化模型提供端到端解决方案,降低了客户算力采购复杂度。目前正处于服务形态向MaaS转变的初期,市场竞争激烈,未来将有更多好用普惠的MaaS支持AI创新落地。