4月11日,国家互联网信息办公室公布《生成式人工智能服务管理办法(征求意见稿)》(下称《意见稿》),拟进一步强化相关主体责任,内容涉及数据安全、个人信息保护、算法设计、内容合规等多个方面。这标志着我国对于AIGC(人工智能生成内容)的第一份政府文件也将出台。
《意见稿》共21条,包括办法适用范围、服务要求、责任与义务等。其中明确定义“生成式人工智能是指基于算法、模型、规则生成文本、图片、声音、视频、代码等内容的技术”。《意见稿》明确指出,国家支持人工智能算法、框架等基础技术的自主创新、推广应用、国际合作,鼓励优先采用安全可信的软件、工具、计算和数据资源。
《意见稿》要求,利用生成式人工智能产品向公众提供服务前,应按照《具有舆论属性或社会动员能力的互联网信息服务安全评估规定》向国家网信部门申报安全评估,并按照《互联网信息服务算法推荐管理规定》履行算法备案和变更、注销备案手续。提供生成式人工智能产品或服务应当遵守法律法规的要求,尊重社会公德、公序良俗。
《意见稿》明确,提供生成式人工智能服务应当按照《中华人民共和国网络安全法》规定,要求用户提供真实身份信息。提供者应当明确并公开其服务的适用人群、场合、用途,采取适当措施防范用户过分依赖或沉迷生成内容。
提供者在提供服务过程中,对用户的输入信息和使用记录承担保护义务。不得非法留存能够推断出用户身份的输入信息,不得根据用户输入信息和使用情况进行画像,不得向他人提供用户输入信息。
《意见稿》指出,对于运行中发现、用户举报的不符合办法要求的生成内容,除采取内容过滤等措施外,应在3个月内通过模型优化训练等方式防止再次生成。
提供者应当按照《互联网信息服务深度合成管理规定》对生成的图片、视频等内容进行标识。
此外,提供者发现用户利用生成式人工智能产品过程中违反法律法规,违背商业道德、社会公德行为时,包括从事网络炒作、恶意发帖跟评、制造垃圾邮件、编写恶意软件,实施不正当的商业营销等,应当暂停或者终止服务。