3月26日,一场关乎AI未来的全球对话,在博鳌亚洲论坛的现场激烈交锋。官方图
DeepSeek的横空出世,吸引了全球的目光聚焦于中国。随着AI技术的“狂飙式”发展,与之相伴的安全问题也引起市场广泛担忧。3月26日,一场关乎AI未来的全球对话,在博鳌亚洲论坛的现场激烈交锋。
针对通过标准能否解决人工智能的安全性问题,与会嘉宾给出了不同的见解, vivo首席安全官鲁京辉表示,安全性问题不能简单地通过制定法律或规则来解决,而是需要形成共识,但光有共识还不够,因为这还涉及地缘政治、全球化等问题。
中国科学院自动化研究所研究员、联合国人工智能高层顾问机构专家曾毅也表达了类似的观点。他认为,由于很多安全和风险问题是不可预知的,对于不可预知的部分我们需要一直保持警惕。
中国工程院院士、清华大学智能产业研究院(AIR)院长张亚勤则认为,从可控性和可信度方面,技术是可以解决信息安全的。“对于风险,我们需要定义一些红线和边界,因为技术不断发展,有了边界之后我们是可以解决的,如果完全没有边界,只谈一些大的原则,谈一些具体方案是比较困难的。”
张亚勤:DeepSeek是近两年来人工智能领域最大的创新
“今年以前,我们没有想到会发生这么大的变化,AI已经走向AI Agent(智能体)阶段。”张亚勤坦言,DeepSeek是近两年来人工智能领域最大的、系统性、规模性的创新,也是中国对全球的重要贡献。
张亚勤表示,AI已从信息智能走向无人驾驶、机器人等物理智能,也走向人脑接口、生物体大模型等生物智能。他认为,无人驾驶是具身智能最大的应用,也是第一个能够真正落地的方向,而人形机器人还需要更长时间。
谈及AI Agent广泛应用后的风险时,张亚勤指出,相关安全风险至少要增加一倍。“智能体是很好的技术,能够自我规划、学习、试错并达到目的,是非常好的工具,但在其运行过程中,中间路径不可控。“虽然智能算法并非完全的黑盒子,但很多运行机理我们并不清楚。”
张亚勤表示,风险主要表现为两大方面,一种是可控风险,一种是被坏人所利用的风险。“另外,我们用智能体的时候需要设置一些红线,比如智能体不能自我复制。确实能力越大,带来的风险越高,特别是AI从信息智能到物理智能再到生物智能,风险会增加很多倍。”
曾毅:人工智能的发展和安全不是相互掣肘的关系
伴随着人工智能的发展,业内对其创新与治理的态度经历了显著转变。在去年的博鳌亚洲论坛上,业内更多聚焦人工智能的发展前景及趋势,今年论坛将目光瞄准了更深层次的问题,人工智能的应用与治理。
“去年全世界的科学家对于如何构建安全护栏是不知道答案的。彼时,多位全球学者自愿签署叫停人工智能6个月的发展倡议。但是经过了半年多一年的探索,我们已经有了初步答案,人工智能的发展应用和安全之间的关系不是相互掣肘的关系。”曾毅表示。
曾毅认为,人工智能、大模型能力的提高并不代表安全能力就好。他表示,现在很多人工智能大模型,包括国内的人工智能大模型,在认知问题求解能力上与GPT系列在同一水平上,但在伦理框架上还有提升空间。
“今年伦理安全应该作为人工智能大模型发展的基因,应该作为第一性原理,不可删除,不可违背,同时做到稳健发展。”曾毅表示。
“不要让人工智能完全代替人的决策,一定要让决策权利在人类手中,这是当代人工智能应用时我们必须注意的问题。”曾毅强调。
江小涓:过去多年AI治理方面的进展有限
“前面两位科学家都比较乐观地表达了人工智能由于技术的发展,它的安全问题可能会有比较好的解决,我一方面同意这个判断,但是另一方面我认为技术发展会带来新的问题。”中国社会科学院大学教授、国务院原副秘书长江小涓表示。
江小涓表示,过去多年AI治理方面的进展有限。“从十年前阿西洛马人工智能原则提出一直到现在,这个原则已经讨论十年了,一个月前巴黎AI峰会依旧是继承了过去喊的这些原则。这些原则落地非常有限,如何落地、如何实践是最大的挑战。”
从经济学家角度来看,江小涓表示,技术是不是可以接受主要关注两个标准,第一,能不能带来生产力的提高,使其创造更多的财富。第二,(技术)发展的结果能不能被比较公平地分享。“从这两个原则来讲,AI的发展肯定是提高劳动生产率了,但第二个问题是不是能够比较好地被社会所有成员分享,从经济学角度上体现为就业是不是充分?分配是不是公平?如果这两个问题不能解决的话,我们有什么替代政策?”
江小涓认为,(AI对)就业的冲击必定会出现。“我们应该有新的社会保障政策来执行它,而不是一再重复那些不能落地的原则。”
新京报贝壳财经记者 胡萌 编辑 王进雨 校对 柳宝庆