当前位置:首页 >最新资讯 > 李彦宏迪拜发声:DeepSeek 引领大语言模型成本革命,每年降超 90%

李彦宏迪拜发声:DeepSeek 引领大语言模型成本革命,每年降超 90%

更新时间:2025-02-12 10:48:06    浏览次数:+次
在科技行业持续关注人工智能发展走向的当下,大语言模型的成本与技术突破成为焦点话题。2 月 11 日,百度创始人李彦宏在阿联酋迪拜举办的 World Governments Summit 2025 峰会上,与阿联酋 AI 部长奥马尔・苏丹・奥拉马(Omar Sultan AI Olama)展开对谈,深入探讨了以 DeepSeek 为代表的大语言模型技术变革,其中 “大语言模型每年推理成本降九成以上” 这一观点引发行业广泛关注。
李彦宏迪拜发声:DeepSeek 引领大语言模型成本革命,每年降超 90%

李彦宏指出,创新速度正以前所未有的态势发展。回顾过去,摩尔定律提及每 18 个月性能翻倍、价格减半,而如今在大语言模型领域,推理成本每年能够降低 90% 以上,这一进步远超过去几十年的计算机革命进程。这样的成本降低,意味着在相同的投入下,企业和开发者能够获得更多的模型使用量和更高的效率,从而推动 AI 技术更快地普及和应用。

以实际应用场景来看,在企业的智能客服领域,以往部署一套基于大语言模型的客服系统,需要高昂的推理成本,使得很多中小企业望而却步。如今,随着成本的大幅降低,这些企业能够以更低的投入实现智能客服的搭建,提高客户服务效率,降低人力成本。在内容创作领域,自媒体创作者利用大语言模型辅助写作时,也不再需要担忧过高的使用成本,能够更频繁地借助模型的能力来生成创意、撰写文案。

李彦宏还谈到,创新无法被计划,我们能做的是营造有利于创新的环境。中国由于计算资源的限制,在推理和训练方面积极创新以降低成本,并且在过去一年取得了显著进步。百度凭借搜索引擎与大语言模型的天然接近性,在 2023 年 3 月推出文心一言,走在行业前列。而如今 DeepSeek 的出现,更是为行业带来了新的变革力量。

DeepSeek 研发的开源 MoE 大模型 DeepSeek-V2 性能达 GPT-4 级别,且开源、可免费商用 。其采用 Transformer 架构,引入 MLA(Multi-head Latent Attention)架构,大幅减少了计算量和推理显存,每 token 成本大幅降低。实际部署在 8 卡 H800 机器上,输入吞吐量超过每秒 10 万 tokens,输出超过每秒 5 万 tokens 。这一技术突破不仅使得模型性能得到提升,更重要的是在成本控制上为行业树立了新的标杆。

对于数据中心和 AI 基础设施的未来,李彦宏认为,尽管大语言模型成本在降低,但技术发展迅速,仍需持续投入芯片、数据中心和云基础设施,以打造更优秀、更智能的下一代模型。虽然在探索过程中可能会花费大量资金,但一旦找到捷径,就能以更低的成本训练出高性能模型。

从行业影响来看,大语言模型成本的降低,将促使更多企业和开发者投身于 AI 领域。一方面,小型创业公司能够以更低的门槛进入市场,利用大语言模型开发创新应用,为行业注入新的活力;另一方面,大型企业也能够在降低成本的基础上,进一步拓展 AI 应用的广度和深度,推动 AI 在医疗、教育、金融等更多领域的落地。

在这个快速发展的 AI 时代,DeepSeek 带来的成本革命只是一个开始。随着技术的不断进步,我们有理由期待大语言模型在成本和性能上取得更大的突破,为人类社会的发展带来更多的可能性。而百度作为行业的重要参与者,也将在李彦宏的引领下,继续在 AI 领域探索创新,推动技术的发展和应用。