APP下载

生成式人工智能服务的法律管理规定解读和风险分析及对策建议

2023-03-24国网思极网安科技北京有限公司尹琴郭晨萌李宁汤文玉崔宇唐恒

中国信息化 2023年11期
关键词:公序良提供者人工智能

文 |国网思极网安科技(北京)有限公司 尹琴 郭晨萌 李宁 汤文玉 崔宇 唐恒

随着ChatGPT大语言模型的火爆,我国也出现了“文心一言”“通义千问”等,生成式人工智能技术(AIGC)的应用对社会和行业产生了广泛的影响。它可以帮助企业更快地生产高质量的内容,从而提高效率和降低成本。然而,AIGC也存在一些潜在的风险和挑战,例如可能会被用于制造虚假信息、侵犯版权和知识产权等问题。因此,在使用AIGC时需要注意社会责任,并采取措施确保其使用是负责任和有益于整个社会。本文针对我国出台的《生成式人工智能服务管理办法(征求意见稿)》进行解读,并通过分析企业面临的版权归属、数据泄露风险、不良信息传播、深度伪造等风险,提出了开展登记备案、确保数据来源要合理合规、明确数据内容标识、做好隐私信息保护、建立审查过滤机制等相关对策建议。

一、《生成式人工智能服务管理办法》解读

2023年04月,国家互联网信息办公室根据《中华人民共和国网络安全法》等法律法规发布了《生成式人工智能服务管理办法(征求意见稿)》(后面简称“管理办法”)。该管理办法旨在促进生成式人工智能技术健康发展和规范应用,确保其符合法律法规要求,尊重社会公德和公序良俗。文件内容包括:定义生成式人工智能技术、提供者需遵守的法律法规要求、预训练数据和标注规则的要求、用户身份信息收集和使用的要求、用户投诉处理机制等。该办法主要有21条,本文将进行分析解读。

(一)鼓励国产化

管理办法中第三条明确提出国家支持人工智能算法、框架等基础技术的自主创新、推广应用、国际合作,鼓励优先采用安全可信的软件、工具、计算和数据资源。从中可以看出,国家对AIGC的重视,尤其是强调AI算法、框架等的国产自主可控性。国产化首先可以减少对外国产品和技术的依赖,提高一个国家的经济独立性和国家安全。其次,可以促进技术转移和提高技术竞争力,从而推动一个国家的经济发展。

(二)遵守法律法规和社会公德、公序良俗

第四条明确提出“提供生成式人工智能产品或服务应当遵守法律法规的要求,尊重社会公德、公序良俗”。具体包括要体现社会主义核心价值观、防止歧视(第十二条也再次强调该点)、保护知识产权杜绝不公平竞争、确保信息真实、尊重个人合法利益等。从本质上看,该条款是我国社会主义核心价值观的体现。

(三)谁生成谁负责,谁提供谁负责

在可用性和真实性方面,提供者应当在生命周期内,提供安全、稳健、持续的服务,保障用户正常使用(第十四条),同时需要对生成内容进行标识(第十六条),这是最基本的权利要求。提供者需要求用户提供真实身份信息,符合网络安全法规定(第九条)。如果采用人工标注,提供者还需制定符合本管理办法的标注规则,确保标注内容的正确性(第八条)。此外,还应当指导用户科学认识和理性使用生成式人工智能生成的内容,杜绝违法现象出现(第十八条)。

在隐私保护和合法性等方面,第五条明确提出“提供者承担该产品生成内容生产者的责任”,且要保护个人隐私信息、用户画像以及保护用户输入和使用记录等(第十一条),还要采取措施防范用户过分依赖或沉迷生成内容(第十条),且需要提供可影响用户信任、选择的必要信息(十七条)。第七条明确提出“提供者应当对生成式人工智能产品的预训练数据、优化训练数据来源的合法性负责。”此外,提供者应当建立用户投诉接收处理机制,及时处理个人关于更正、删除、屏蔽其个人信息的请求,防止个人权利被侵害(第十三条)。对于运行中发现、用户举报的不符合本办法要求的生成内容,除采取内容过滤等措施外,应在3个月内通过模型优化训练等方式防止再次生成(第十五条)。

(四)评估备案

第六条明确提出利用AIGC提供服务前,需要向国家网信部门申报安全评估,并按照《互联网信息服务算法推荐管理规定》履行算法备案和变更、注销备案手续。这是为了确保生成式人工智能产品和服务符合法律法规的要求,尊重社会公德、公序良俗,不含有违反国家政策的内容,并且保护用户的个人信息和隐私。评估备案可以帮助监管部门对生成式人工智能产品和服务进行有效监管,防止不良内容的传播和个人信息泄露等问题。同时,也可以促进企业遵守相关法律法规,提高企业的社会责任感和公信力。

(五)违法处置

第十九条和第二十条明确规定,如果用户在使用AIGC产品或服务过程中违反法律法规,违背商业道德、社会公德行为时,应当暂停或者终止服务。除了本管理办法,第二十条还规定网信等部门还可根据《中华人民共和国网络安全法》《中华人民共和国数据安全法》《中华人民共和国个人信息保护法》等法律、行政法规的规定予以处罚,根据情况可以警告、通报批评、暂停服务、罚款,甚至给予治安管理处罚或者追究刑事责任。

二、企业面临的法律风险

(一)版权归属问题

AIGC的训练需要大量数据,训练数据和生成的数据版权存在较大的法律风险。首先,训练数据来源是否被授权,利用爬虫从网络爬取的数据就容易引起法律纠纷。例如,全球知名图片提供商Getty Images起诉热门人工智能(AI)绘画工具Stable Diffusion的开发者Stability AI,称其非法从网站窃取了数百万张图片,侵犯了版权。其次,AIGC生成的数据版权是否属于AIGC服务“提供者”,这是一个在知识产权法学界存在较大争议的问题。

(二)数据泄露安全风险

AIGC模型的训练需要大量的数据,庞大的数据中可能包含很多人的敏感信息,同时AIGC在使用过程中会不断提取使用者输入的信息作为训练数据,进行不断迭代训练。因此,AIGC可能造成个人信息泄露的风险。当前以ChatGPT为代表的AIGC并没有获得用户的同意,违法我国《网络安全法》《数据安全法》《个人信息保护条例》等法律法规的规定。

(三)不良信息传播风险

AIGC生成内容的同时,可能会引入政治倾向、歧视等问题。带有该类问题的不良信息的传播,可能会存在加剧歧视的风险,例如生成种族歧视、性别歧视、暴力、血腥色情等等违背法律和公序良俗的内容,给整个社会、国家造成较大的安全风险。

(四)深度伪造风险

AIGC可以生成文字、图像、视频等,因此可以用于实现AI换脸、合成语音、人脸合成、视频生成等场景。一旦被不法分子利用,可以用于金融诈骗、敲诈勒索等,对于社会造成极大的危害。

三、对策建议

(一)开展登记备案

对于AIGC的产品或服务,一律采取登记备案的方式,并评估其安全风险。一旦出现问题,便于溯源追责。例如,市场上鱼龙混杂的APP、小程序等均需要备案登记和评估,只有授权后才可以进入市场,否则将一律封禁处罚。

(二)确保数据来源要合理合规

企业在训练自己的AIGC产品或者提供服务前,要对训练数据逐一排查,确保训练数据来源可靠、获得授权等,杜绝版权纠纷问题。例如,爬取知名网站的图片作为训练数据,必须取得对方网站的书面授权,否则一律视为侵权。

(三)明确数据内容标识

企业如果提供的数据是由AIGC生成的,建议明确标注为AIGC生成。例如,合成的图片、视频、语音等,避免产生因深度伪造产生的误导纠纷等。

(四)做好隐私信息保护

AIGC企业在获取用户信息时,首先要获得用户同意,取得用户授权;其次,要做好用户个人隐私信息的保护,例如采取加密、差分隐私等技术手段确保用户隐私不被泄露。

(五)建立审查过滤机制

建议AIGC企业不断完善审核不良信息的特征库,加强对生产内容的审查和过滤,确保应用当中尽量少的、有违法和违反公序良俗的内容,在发现这些信息后应当要及时处置。另外,在处置时需要保存有关的处置和改进的记录,并将这些日志信息进行封存。如果发现用户中有违法使用者,可以警示或限制他们使用一些功能等等。

四、结语

AIGC是一把双刃剑,在提高效率的同时,也引入了安全风险隐患。因此,需要加强立法、加强监督、合理引导,最大限度降低风险,发挥AIGC最大价值,为我国经济健康稳定发展贡献AI智慧。

猜你喜欢

公序良提供者人工智能
民法公序良俗原则的适用研究
网络交易平台提供者的法律地位与民事责任分析
浅析公序良俗原则在法律中的适用
基于隐私度和稳定度的D2D数据共享伙伴选择机制
2019:人工智能
人工智能与就业
数读人工智能
网络言论自由的行政法规制研究
下一幕,人工智能!
公序良俗原则的司法适用问题