时间:2023-04-16 22:29:02来源:北京商报
数据违规收集、隐私保护缺位、信息难辨真假……ChatGPT的爆火,也让AIGC(人工智能生成内容)陷入了流量与争议齐飞的境地,对监管的呼吁日渐高涨。4月11日,国家互联网信息办公室就《生成式人工智能服务管理办法(征求意见稿)》(以下简称“征求意见稿”)公开征求意见,内容的真实性、训练数据的安全性等备受关注的话题皆在其中。随着AIGC领域首份政府文件的面世,产业也有望理顺发展逻辑,告别野蛮生长。
防止生成虚假信息
“凌驾”于海量信息之上,结合超强的理解和生成能力,ChatGPT以高度“仿真”的回答惊艳了全世界。但在ChatGPT能力升级的过程中,生成的内容开始变得真伪莫测,治理难度随之升级,这也成了目前以ChatGPT为代表的AIGC最为诟病的一点。
对此,征求意见稿明确提出,利用生成式人工智能生成的内容应当真实准确,采取措施防止生成虚假信息。根据征求意见稿,生成式人工智能是指基于算法、模型、规则生成文本、图片、声音、视频、代码等内容的技术。
数据安全是AIGC领域的另一个顽疾。河南泽槿律师事务所主任付建提到,人工智能掌握大量数据和信息,但并不能保证数据的绝对安全性,一旦出现安全漏洞,再加上技术不成熟,导致公共利益缺乏有效保障。由于人工智能技术的程序是开发人员编写的,但决策是由机器做出的,如果出现重大失误造成损害后果,责任谁来承担仍存在争议。
为此,在用于AIGC预训练、优化训练的数据方面,征求意见稿也做出了明确的规范,例如不含有侵犯知识产权的内容,数据包含个人信息的,应当征得个人信息主体同意或者符合法律、行政法规规定的其他情形,能够保证数据的真实性、准确性、客观性、多样性等。
在引起热议的隐私保护方面,征求意见稿表示,提供者在提供服务过程中,对用户的输入信息和使用记录承担保护义务。不得非法留存能够推断出用户身份的输入信息,不得根据用户输入信息和使用情况进行画像,不得向他人提供用户输入信息。
顺畅的反馈机制是AIGC良性发展的关键一环。征求意见稿指出,提供者应当建立用户投诉接收处理机制,及时处置个人关于更正、删除、屏蔽其个人信息的请求;发现、知悉生成的文本、图片、声音、视频等侵害他人肖像权、名誉权、个人隐私、商业秘密,或者不符合本办法要求时,应当采取措施,停止生成,防止危害持续。
而对于运行中发现、用户举报的不符合本办法要求的生成内容,除采取内容过滤等措施外,应在3个月内通过模型优化训练等方式防止再次生成。
北京卓纬律师事务所合伙人、律师孙志峰认为,征求意见稿明确了网络安全法、数据安全法、个人信息保护法以及《互联网信息服务算法推荐管理规定》《互联网信息服务深度合成管理规定》等相关互联网规则在AIGC领域的适用,有利于执法尺度的统一,提升服务商和用户对执法预期的判断。
“同时征求意见稿也明确了提供者有义务根据有关部门要求,提供包括训练数据基本情况描述、人工标注规则及相关信息,以及基础算法和技术体系等,保障用户知情权,便于日常监管,在一定程度上可以缓解当前用户基于算法等技术革新的担忧。”孙志峰称。
从野蛮生长到规范发展
征求意见稿出炉在一个关键的时期:近段时间以来,无论国外还是国内,AIGC都陷入了巨大的负面舆论旋涡。3月末,意大利个人数据保护局宣布禁止使用ChatGPT,此后,德国、加大拿、法国、爱尔兰等也相继释放出类似信号。
在这之前,1000多位学界业界人士联名呼吁叫停AI大模型研究的新闻更是刷屏网络,其中对于AI系统的担忧主要集中在两方面,包括AI可能失控、给人类文明带来风险,以及AI可能被恶意使用,造成错误信息传播或被用来犯罪。
于国内而言,虚假消息的传播也已经开始扰乱人们的视听。不久前,一封出自ChatGPT之手的“杭州取消限行”的消息一度盛传。此外,AI绘画也始终面临着版权的争议。
瑞莱智慧联合创始人萧子豪对北京商报记者分析称,一方面,ChatGPT大模型成为全球化趋势,另一方面新技术之下治理挑战日益严重,以ChatGPT为代表的大模型传播能力和技术能力呈现高度的渗透性和扩展性,传统网络治理模式失效,在安全风险存在未知与不确定性的情况下,探索新治理路径成为全球性议题。
“新技术的发展,监管一定是落后于发展的。”萧子豪表示,融易新媒体,相比于传统互联网技术,对于AIGC的监管已经较早地被关注和提上议程。针对具体的安全问题,需要我们在发展技术的同时,对于AIGC应用边界加以管控,采取必要的控制。