4月11日,国家互联网信息办公室发布关于《生成式人工智能服务管理办法(征求意见稿)》公开征求意见的通知。在百度“文心一言”、阿里“通义千问”等国产生成式AI大模型内测,各科技企业纷纷“官宣”将推出自研大模型的背景下,《征求意见稿》的发布将国内生成式大模型的监管以及安全问题再度推到聚光灯下。


奇安信安全专家对贝壳财经记者表示,《征求意见稿》的发布以及全球范围内对于AIGC的监管力度加强,意味着数据安全和隐私保护已经成为AIGC发展的前提和关键,“《征求意见稿》首先强调了安全评估和算法备案的前提性和必要性,其次强调提供者需确保数据安全和个人信息保护合规,尤其是隐私保护,最后夯实了违规责任的处罚措施,包含追究刑事责任。”


另一方面,有不愿具名的大模型研发机构工作人员告诉贝壳财经记者,《征求意见稿》将对行业产生显著影响,“要想做到AI生成的答案完全‘安全’,就得大幅增加训练成本,除训练AI的人员外,还要额外配备复审答案的人员。”


DCCI互联网研究院院长刘兴亮在接受新京报贝壳财经记者采访时表示,《征求意见稿》的出台有望对生成式人工智能行业产生积极影响,促使行业规范发展、提高技术水平和安全性,保护用户隐私,并加强国际合作与竞争。但同时,政策的具体细节和执行力度也需要在实践中不断完善和调整。


生成式人工智能生成的内容应合规 但如何解决“幻觉”现象?


贝壳财经记者注意到,《征求意见稿》第四条提出,利用生成式人工智能生成的内容应当体现社会主义核心价值观,不得含有一系列违规以及可能扰乱经济秩序和社会秩序的内容。


但另一方面,由于生成式AI底层算法的本质就是“猜出”最符合上文内容的“下文”,具备一定随机性,因此包括GPT4在内的生成式AI都难以避免出现“幻觉”问题。


有大模型研发机构工作人员对贝壳财经记者表示,要解决生成内容的安全问题,就需要额外配备和训练AI人员人数相同的安全审核人员,“其实国内各个厂商都有生产大模型的技术,算力、硬件、软件都不是问题,唯独市场是否要放开,如何规避不安全的内容存在问题。”


该人员告诉记者,实际上去年年底开始国内AI厂商就已经注意到了ChatGPT,虽然也有想要抢占国内市场的打算,但由于种种原因始终在观望,较为稳妥的做法是toB,做企业专属大模型,风险相对较小。


刘兴亮表示,第四条确实对生成式人工智能提出了较高的要求,要实现这一要求,从技术和实践层面都需要付出一定的努力,在模型训练方面,企业和开发者可以在训练生成式AI模型时,更加关注筛选和清洗训练数据,确保数据集中包含的信息符合社会主义核心价值观,减少虚假信息和不良内容。在模型优化方面,针对生成式AI存在的“幻觉”现象,可以通过优化模型架构、调整模型参数等方法,提高模型生成内容的稳定性和准确性。


贝壳财经记者注意到,除了对生成的内容有要求外,《征求意见稿》确实也对AI的训练数据和训练过程提出了相关合规规定。第七条要求,提供者应当对生成式人工智能产品的预训练数据、优化训练数据来源的合法性负责。第八条则要求,生成式人工智能产品研制中采用人工标注时,提供者应当制定符合本办法要求,清晰、具体、可操作的标注规则,对标注人员进行必要培训,抽样核验标注内容的正确性。


对此,有网络安全从业者在接受媒体采访时称,前置端用于AI学习的内容需要提前审核在《征求意见稿》已有体现,而在后置端,AI还需要具备发现违规内容时追溯其生成相关内容学习“材料”能力,并判断是需要调整原始学习素材,抑或是修改模型参数,或是其他方式避免相关情况再次出现。


值得注意的是,《征求意见稿》第五条提出,利用生成式人工智能产品提供聊天和文本、图像、声音生成等服务的组织和个人(以下称“提供者”),包括通过提供可编程接口等方式支持他人自行生成文本、图像、声音等,承担该产品生成内容生产者的责任。


南开大学法学院副院长、中国新一代人工智能发展战略研究院特约研究员陈兵教授4月11日公开表示,对生成内容生产者的认定是需要关注的重点。如果生成式人工智能产品提供者是生成内容的生产者,即应对具体数据信息的真实性、算法使用的适当性等整个生成内容的过程负责,如果作为生产者和提供者的平台已经尽到相应注意义务,鉴于其对创新发展的贡献,不宜施加严格责任,否则不利于技术的开发和未来商用。


对于已生成的内容,刘兴亮建议,在内容审查与过滤方面,企业可以在生成式AI输出内容后,采用自动或人工的方式对内容进行审查和过滤,确保输出的内容符合相关法规要求,避免传播虚假信息。监管与监测方面,政府部门可以加强对生成式AI相关企业和产品的监管和监测,建立相应的评估机制和惩罚措施,推动企业自律和规范发展。此外,政府、企业和媒体都可以在普及人工智能知识的同时,加强对用户的教育和引导,帮助用户理解生成式AI的特点和局限性,避免对其生成的内容产生过高的期望。


也有学界人士认为,由于生成式人工智能应用的形态和可能带来的安全风险正在快速动态变化,所以《征求意见稿》也给出了开放的解决方案,如第十五条提出对于运行中发现、用户举报的不符合本办法要求的生成内容,除采取内容过滤等措施外,应在3个月内通过模型优化训练等方式防止再次生成,这体现了法规对人工智能的开放和包容态度。


“虽然实现《征求意见稿》的规定面临一定挑战,但通过企业、政府和社会各方的共同努力,应该能在一定程度上确保生成式人工智能的内容质量和符合法规要求。当然,随着技术的发展和监管体系的完善,未来执行力度还有可能得到进一步加强。”刘兴亮说。


强调数据安全、隐私、知识产权 大模型提供服务需备案


贝壳财经记者注意到,对于生成式AI模型在收集信息的隐私保护和知识产权等方面,《征求意见稿》也做出了相关规定。


奇安信专家表示,《征求意见稿》强调提供者需确保数据安全和个人信息保护合规,尤其是隐私保护,“《征求意见稿》提出,用生成式人工智能产品提供聊天和文本、图像、声音生成等服务的组织和个人,涉及个人信息的,承担个人信息处理者的法定责任,履行个人信息保护义务。在数据安全方面,提供者应当对生成式人工智能产品的预训练数据、优化训练数据来源的合法性负责。涉及个人信息的,应当征得个人信息主体同意或者符合法律、行政法规规定的其他情形等等。”


刘兴亮告诉贝壳财经记者,生成式人工智能在很多方面具有巨大潜力和价值,但同时确实存在一些可能侵犯知识产权、商业机密和他人隐私的问题。这些问题的出现,一方面是因为生成式AI的技术特点,另一方面也是因为行业监管和企业自律水平有待提高。


“《征求意见稿》要求生成式人工智能产品的预训练数据不含侵犯知识产权的内容,这是一个积极的规定,有助于避免生成式AI在一定程度上侵犯知识产权。然而,仅仅依靠这一规定可能无法完全解决问题。为更有效地避免侵犯知识产权、商业机密和他人隐私,还需要完善法律法规:政府应加强对生成式人工智能相关法律法规的制定和完善,明确生成式AI在知识产权、商业机密和隐私方面的权利和义务,为行业发展提供有力的法治保障。”刘兴亮说。


在他看来,企业在开发和应用生成式AI技术时,应严格遵守相关法律法规,加强对预训练数据的筛选和清洗,确保数据来源合法,避免侵犯他人权益。同时也需要通过不断研究和开发新技术,提高生成式AI对知识产权、商业机密和隐私保护的能力,例如采用差分隐私、联邦学习等技术,保护数据隐私。


此外,《征求意见稿》第六条指出,利用生成式人工智能产品向公众提供服务前,应当按照《具有舆论属性或社会动员能力的互联网信息服务安全评估规定》向国家网信部门申报安全评估,并按照《互联网信息服务算法推荐管理规定》履行算法备案和变更、注销备案手续。奇安信专家对此表示,这强调了安全评估和算法备案的前提性和必要性。


有学界人士认为,训练数据要保证合法,不侵犯知识产权、个人隐私,以及客观准确这条细则很重要,能够挡住很多“无底线靠数据发财”的应用乱象,而是否经过网信部门的备案和安全评估是硬性流程。


最后,《征求意见稿》第二十条指出,提供者违反本办法规定的,由网信部门和有关主管部门按照《中华人民共和国网络安全法》《中华人民共和国数据安全法》《中华人民共和国个人信息保护法》等法律、行政法规的规定予以处罚。其中构成违反治安管理行为的,依法给予治安管理处罚;构成犯罪的,依法追究刑事责任。奇安信专家认为,这夯实了违规责任的处罚措施,包含追究刑事责任。


各国加码AIGC监管力度 人工智能伦理需靠法律护航


事实上,在全球范围内,各国都在逐步重视对AIGC的监管力度。


贝壳财经记者注意到,美国商务部4月11日就相关问责措施正式公开征求意见,包括新人工智能模型在发布前是否应经过认证程序。


奇安信专家对此表示,除中国外,拜登政府已经开始研究是否需要对ChatGPT等人工智能工具实行检查。而意大利、加拿大等国监管机构也先后宣布将关注ChatGPT及其背后公司OpenAI带来的数据安全风险,并将开启监管调查。


“生成式大模型在近年来确实取得了显著的进步,不仅在自然语言处理领域,还在诸如计算机视觉、生物信息学等多个领域都取得了突破。然而,这种快速发展确实带来了一些潜在的安全和伦理问题,如网络攻击、资源消耗、虚假信息、歧视性言论等,值得我们关注和讨论。”刘兴亮告诉贝壳财经记者。


奇安信安全专家认为,《征求意见稿》的发布以及全球范围内对于AIGC的监管力度加强,意味着数据安全和隐私保护已经成为AIGC发展的前提和关键。随着AIGC技术的日益成熟和普及,企业应该更加重视数据安全和隐私保护问题,在开展相关业务时积极寻求专业的网络安全技术和咨询服务的支持,确保业务的安全和可靠性。


刘兴亮表示,为了应对安全和伦理问题,要建立完善的法律法规和监管机制,为生成式大模型的发展提供有力的法治保障。企业应加强自律,关注技术发展对社会、经济、环境等方面的影响,确保技术应用的安全性和可持续性。积极开展多方合作,鼓励政府、企业、学术界和社会各界共同参与人工智能伦理和安全问题的研究和讨论,形成共识和标准。加强公众教育和引导,提高公众对生成式大模型技术的认识和理解,帮助他们正确看待和使用这些技术,防止技术滥用或误用。


他认为,研究者可以探索如何设计更加安全和可解释的生成式AI,从技术层面降低潜在的安全和伦理风险。另一方面,要建立全球合作机制。鉴于人工智能技术的全球性影响,各国政府和相关机构可以携手合作,共同应对跨国界的安全和伦理挑战。


“总之,生成式大模型科技的发展速度和所带来的潜在安全问题及伦理问题值得我们关注。通过政府、企业、学术界和社会各界的共同努力,我们可以在确保技术进步的同时,妥善应对这些挑战,为人类社会带来更多福祉。”刘兴亮告诉贝壳财经记者。


记者联系邮箱:luoyidan@xjbnews.com

新京报贝壳财经记者 罗亦丹

编辑 岳彩周

校对 刘军