“大概9个月前,我曾经沮丧地说,中国还没有‘ChatGPT时刻’,虽然过去也有表现不错的模型出现,但是始终缺少一个一枝独秀的模型,能够支撑ToB、ToC 应用百花齐放,能够让每个企业CEO都在追问IT部门‘什么时候能在企业里接入大模型?’而现在,企业和用户已经经历过‘DeepSeek时刻’的市场教育。”


3月27日至31日,2025中关村论坛年会举行,人工智能主题日系列活动贯穿整个年会期间。在人工智能主题日核心论坛“未来人工智能先锋论坛”上,零一万物 CEO、创新工场董事长李开复分享了他基于全球视角对生成式AI的展望。


李开复正在发表演讲。官方供图


2025年 大模型“落地为王”


李开复认为,AI 2.0是有史以来最伟大的科技革命与平台革命,大模型走出实验室,穿透各行各业成为驱动实体经济的新质生产力,“在过去两年间,从 ChatGPT 推出之后,大模型智力在不断地提升,而且目前看起来远没有触及天花板。与此同时,大模型的推理成本在以每年降低十倍的速度快速下降,这为AI-First应用爆发提供了非常重要的条件。两年前性能不够好的模型,现在已经够好了;两年前推理成本太高的模型,现在已经是‘白菜价’了。”


基于此,他推测AI-First 应用将很快井喷,2025 年会是AI-First应用爆发、大模型“落地为王”的元年。


几个月前,OpenAI联合创始人苏茨克维公开表示,预训练阶段的Scaling Law(规模效应)放缓,因为模型训练所用的数据量已经触及瓶颈,算力方面超大GPU集群效益降低,随着GPU数量增加容错问题等导致边际效益降低。


对此,李开复认为,行业内已经出现了新的曙光,Scaling Law正从预训练阶段转向推理阶段,也就是慢思考模式。目前来看,在慢思考Scaling Law下,模型性能的成长速度非常快,而且还有很大的增长空间。


值得注意的是,DeepSeek正以思考见长,这也从侧面印证了李开复的观点。


DeepSeek开源推理模型思考训练过程 缩小了中美差距


李开复也分享了他对DeepSeek的观察。


“DeepSeek破解并开源推理模型的思考训练过程,进一步缩小与美国的差距。DeepSeek很快让模型具备了推理慢思考的能力。DeepSeek-R1真正切实掌握了这一技术,并且公开了 DeepSeek-R1的思维链。这是令人非常震惊的,因为OpenAI o1一直隐藏着思维链,就是防止友商复现,结果DeepSeek还是从零起步做到了这一点。”李开复说。


在他看来,DeepSeek以极其高的工程效率,走出了一条与OpenAI天量级融资的底层逻辑迥然不同的中国道路。在同样标准下进行比较,DeepSeek-R1要比美国的类似模型更快,也更便宜了5到10倍,这背后是工程能力的巨大进步。


李开复表示,DeepSeek最重要的一点是证明了开源模型能力追赶上闭源模型,进一步推进SOTA模型的商品化,“DeepSeek证明了闭源的路径是不可取的,开源才能有更好的发展。如果DeepSeek没有开源,我大胆揣测,它的影响力会远远不如今天。在美国的开源社区和社交媒体上,大部分人都在热情拥抱DeepSeek,过往很少有中国软件在海外收获如此广泛的欢迎。这很大程度是因为与闭源的OpenAI相比,DeepSeek更为开放。”


所以,他认为中国迎来了属于自己的“DeepSeek时刻”,这将大幅加速大模型在中国的全面落地,经过“DeepSeek时刻”的市场教育,中国市场真正觉醒了,这也为中国AI-First应用的爆发扫清了一大障碍。


“基于上述考量,零一万物在过去几个月也做出了战略调整,我们已经全面拥抱DeepSeek,并且把大部分力量用于把 DeepSeek优质基座模型转变为企业级DeepSeek部署定制解决方案——可以类比为零一万物在打造AI 2.0时代的Windows系统,而DeepSeek就是驱动Windows的内核。”李开复说。


记者联系邮箱:luoyidan@xjbnews.com

新京报贝壳财经记者 罗亦丹

编辑 王进雨

校对 刘军