APP下载

生成式人工智能(AIGC)的社会风险及治理研究*

2024-06-10魏晓光赵珂旋楼俊涛

南方农机 2024年9期
关键词:鸿沟人工智能数字

魏晓光 ,赵珂旋 ,吕 菲 ,楼俊涛

(河北金融学院,河北 保定 071000)

Chat GPT(Chat Generative Pre-trained Transformer)的产生和发展引发全球瞩目,随着其与各个行业交互的不断扩展和延伸,生成式人工智能(AIGC)的时代即将到来,并将深刻影响社会的各个领域。生成式人工智能与判别式人工智能主要区别在于:生成式人工智能可以生成新的内容,而判别式人工智能主要是对历史数据进行分析判断。本研究将分析以ChatGPT为代表的生成式人工智能会带来哪些风险,在面对这些风险时应如何去寻找破解之路。

1 生成式人工智能的风险点

以ChatGPT 为代表的生成式人工智能赋能社会发展益处颇多,同时面临挑战与风险。

1.1 虚假信息泛滥

ChatGPT 作为人工智能技术自然语言处理工具,可能引发捏造事实、抄袭内容等现象,进而引发社会虚假信息泛滥危机[1]。ChatGPT 不具备人的价值和伦理观念,它所输出的信息也不一定具有社会应用价值,甚至可能有违真实性。虽然大多数人都肯定生成式人工智能带给人类的便利,但是完全利用人工智能来解决生活中的问题,或许会引起更加混乱的局面。利用ChatGPT 可能还会引发学术造假、行业竞争不公、虚假信息泛滥等危害社会秩序的现象。

虽然ChatGPT 可以为人类带来更加智能化的体验,但是它的智能化程度目前仍然有限,尤其是在知识理解和应用方面,ChatGPT 可以通过大量的训练数据不断提高自己的服务能力,却无法达到人类的思考高度和对事物的理解程度[2]。因此,在某些高度复杂和专业化的领域,人类的经验仍然无法被替代,当面对一些复杂的问题或者情境时,通过ChatGPT 获得的解答仅仅是为了回应此问题,并不能真正理解问题的内在含义,某些时候它只能捏造出没有任何事实依据的结果“应付”使用者,而这种现象很有可能给金融、医疗等相关领域带来严重的损失。

1.2 个人隐私泄露

个人信息隐私安全问题是以ChatGPT 为代表的生成式人工智能不得不面对的风险,公民的个人隐私和国家安全息息相关。在使用ChatGPT 等生成式人工智能时,保护用户的数据安全与隐私问题同样面临着诸多挑战。

首先,训练模型需要通过大量的数据处理来学习人类语言模式,这些学习演练数据可能包含用户的部分敏感信息。社会群体依靠以ChatGPT 为代表的生成式人工智能获取大量数据信息,所需要的数据规模巨大且复杂,由此可能会引发知识产权归属问题[3]。模型的训练数据大多来自互联网,其中可能包含未经授权的个人信息,生成式人工智能主要通过计算机检索功能获取数据,数据的收集和生成过程存在“黑箱”问题,数据获取的途径无法判断是否正当合理,获取的数据也无法判断是否涉及知识产权等问题。例如,社会群体用ChatGPT 时可能会涉及那些未被法律赋予使用权利的数据,那么使用该数据就违反了相关法律,侵犯了他人的权利和隐私。

其次,使用ChatGPT 生成的内容可能会包含算法训练数据中的某些片段,从而导致信息泄露。生成式人工智能时代到来之后,社会群体利用以ChatGPT为代表的生成式人工智能极大地便捷了作品的创作,但用户在使用ChatGPT 时就是在向其提供数据,在此过程中存在着个人数据泄露的风险。例如,社会群体在对ChatGPT 进行询问的同时,ChatGPT 会收集大量与用户相关的数据,此过程会涉及大量个人信息方面的数据,容易衍生一系列的个人隐私安全问题。

最后,黑客可能通过生成式人工智能更加快捷地获取用户数据,这对用户隐私构成了极大的潜在威胁。黑客可以通过ChatGPT 等生成式人工智能编写的代码攻击网络用户[4],这将降低网络攻击者的技术门槛,扩大恶意黑客的群体规模,最终使网络环境愈加恶劣。

1.3 技术依赖问题

生成式人工智能的广泛发展会降低人的创造性思维能力,冲击人的主导地位。机器是人类创造出来的,它所具备的思维能力也是对于人类行为的学习与模仿,每次技术革新都离不开人类的创造,这是机器所不能完成的。以ChatGPT 为代表的新技术的产生在一定程度上可以简化人类的思考过程,但如果过度依赖此类技术,就会掉进“省力原则”的陷阱。例如在教育领域,学生完成作业时可能会使用ChatGPT作弊[5],将使得教育体系失去相对应的公正性和平衡性,导致教育不公平,而学生长期缺乏独立思考能力,有可能造成学生群体产生技术依赖性。这种“技术依赖”的产生,会导致人的自主性、批判性、创造性思维退化。

在信息爆炸的时代,人类免不了利用工具筛选并处理大量的信息。生成式人工智能的优点便是强大的信息处理能力,它为人类提供了更加便捷和迅速的信息收集和处理方式,节约了人类在一些信息上所需要耗费的时间,但长此以往,人们便会不假思索地利用技术来解决一切问题,从而被技术手段所禁锢。

1.4 数字鸿沟问题

数字鸿沟就是信息鸿沟,随着生成式人工智能大规模的迭代更新,以技术鸿沟、算法鸿沟为代表的新型数字鸿沟将提高新一轮的数字不平等现象发生的可能性,而ChatGPT的出现与发展在某种程度上加深了城乡数字鸿沟[6]。一方面,部分地区经济发展水平相对落后,没有健全的数字基础建设,使得其无法接触到生成式模型等先进的人工智能技术,从而进一步拉大了城乡间的差距。另一方面,生成式人工智能模型在训练时需要巨大的数据库和极强的算法能力,运行成本巨大,使得此类技术手段只被小部分人控制,而集中的控制能力使得此领域形成垄断,从而扩大了城乡数字鸿沟问题。城乡本身经济发展的不平衡,造成了存在于地区间经济发展、教育水平、信息接受能力等的不同程度的不平衡。生成式人工智能有可能加大城市与城市、城市与乡村、乡村与乡村之间的不公平性。

2 生成式人工智能赋能社会发展风险点的治理

生成式人工智能助力社会发展时所产生风险的治理是一个开放性的、国际性的问题,必须通过广泛的国际合作来达成共识,从而确定生成式人工智能赋能社会发展的基本原则,形成一个完备的治理体系。应从治理理念、数据合规、技术基础、服务保障等多个方面来进行防范治理。

2.1 治理理念方面

首先,遵循敏捷治理理念。简而言之就是要在时代发展的进程中逐步针对以ChatGPT 为代表的生成式人工智能所存在的问题,进行及时、有效的调整,而不是根据所制定的长期计划进行改变。这就要求该技术的监管部门时刻注意生成式人工智能发展和使用的过程,做到实时跟踪、动态监测,推动企业可持续发展,将潜在的负面影响控制到最小状态。具体应做好以下几方面的工作:1)完善生成式人工智能平台内部的组织机构,利用有效的排查手段调动全平台、全方面进行监测。2)在用户使用前统一签订用户使用规范说明,对用户的使用进行严格规范,对其中出现的一些不符合规定的内容进行强制性删除,对于那些严重违反规定的用户进行永久拉黑处理。3)监管部门可在正式运行前进行小规模内测,或者请第三方机构对于平台的运行进行评价和漏洞审查。

其次,遵循终身学习理念。生成式人工智能技术的广泛应用为社会带来诸多便利的同时,也因部分用户对其过分依赖逐渐丧失自主性[7],从而对社会发展造成负面影响。面对部分用户对ChatGPT 技术的过分依赖问题,需要人们树立终身学习的理念,理性使用作为新时代劳动工具的ChatGPT。为了跟上时代的发展步伐,人们需要积极参与数字教育和培训,不断构建和完善自身的数字化知识体系,培养数字思维,以适应数字化时代的发展需求。

2.2 数据合规方面

政府及相关监管部门应从管理机制、技术手段以及责任规范三个方面不断健全和完善数据合规建设,统筹治理虚假信息、个人隐私泄露和技术依赖问题,为生成式人工智能行业的健康发展保驾护航。

在管理机制上,政府及监管部门应建立完备的法律体系,坚持“伦理先行”原则,应明确落实落细《中华人民共和国个人信息保护法》《中华人民共和国网络安全法》《互联网信息服务管理办法》等的相关规定。政府监管部门应密切追踪生成式人工智能的发展态势,加强对生成式人工智能相关设备和行为的监管能力,以确保个人隐私和数据得到法律保护[8],保障个人信息记录及使用的合法性,监控数据的来源并审核其真实性,防止虚假、错误等不符合法律规范的信息进入生成式人工智能模型。

在技术手段上,要加强生成式人工智能技术的研发和管理,对个人隐私信息和虚假信息等数据进行监测。通过聚焦个人隐私和虚假信息等维度,提高治理手段的智能化水平,降低生成式人工智能造成的数据和隐私泄漏风险,并有效识别虚假信息,增强生成式人工智能技术的透明度,避免获取数据时出现“黑箱”问题。

在责任规范上,政府及监管部门应明确ChatGPT等生成式人工智能各个主体的责任[9],并对各个主体提出数据规范要求,使技术开发方、提供方和使用方各司其职,各自承担相应的义务与责任。具体而言,使用方在使用生成式人工智能过程中,要加强信息识别能力,时刻保持警惕,不输入敏感的数据信息,如密码、银行账户信息、个人身份证件号码等,并定期清除在ChatGPT 中的聊天记录,以减少信息泄露的风险。构建多主体的数据监管体系,有助于监管部门在监管过程中提高监管效率,动态跟踪数据并实时调整治理手段。

2.3 技术基础方面

为从根本上治理以ChatGPT 为代表的生成式人工智能技术扩大城乡数字鸿沟问题,避免生成式人工智能产生的个人隐私泄露风险和虚假信息,政府和相关企业应从数字基础建设、数据算法规制等方面采取相应措施来提升生成式人工智能的技术基础。

针对生成式人工智能扩大城乡数字鸿沟问题,政府应加大对乡村数字基础建设的投入,加快5G 技术、生成式人工智能技术、云计算等数字化设施的布局,并提高数字技术的可访问性和可用性。这有利于农民将ChatGPT 等生成式人工智能技术和农业生产结合,及时获取有效的农业信息,同时对农业布局作出合理的生产调整,提高农业生产效率,进而推动乡村经济发展,缩小城乡数字鸿沟。

针对生成式人工智能产生的个人隐私泄露和虚假信息问题,一方面,从数据算法设计出发,通过大量的模拟预训练,加强算法技术中对数据的审核及过滤,使得数据的抓取和训练过程更加合规有序[10],防止未授权的个人信息被录入,以降低个人信息泄露风险。另一方面,在数据算法应用过程中,通过用户的数据反馈,及时改进数据算法的设计,使生成式人工智能提高数据理解能力,不断进行优化处理,纠正数据算法中违背道德伦理的信息。

2.4 服务保障方面

生成式人工智能在发展和应用过程中,应当弥合数字鸿沟,强化对用户个人隐私的保护,加强数据的真实可靠性。首先,针对城乡数字鸿沟问题,政府应加快构建乡村数字化人才教育保障体系,促使乡村居民认识到数字化教育的重要性,同时实施人才激励政策,吸引新青年返乡创业,从而提高乡村数字化教育程度,缩小城乡差距。其次,为保障系统和信息安全,应根据生成式人工智能产业链的运作流程明确上下游企业的相关义务与责任,上游企业负责维护生成式人工智能的系统安全,下游企业负责保障数据内容的安全性和准确性,同时上下游企业应建立健全生成式人工智能中生成不符合伦理规范内容的阻断机制。生成式人工智能的上下游企业分工合作,共同保障用户的个人隐私安全和所产生数据的真实性。

3 结语

以ChatGPT 为代表的生成式人工智能的大规模兴起,将对人们的生活和社会的发展产生巨大的影响。生成式人工智能和社会发展之间存在密切的关系,在推动生成式人工智能发展的同时,需要充分考虑其对社会发展的负面影响。面对新技术带来的风险,与其排斥,不如学会利用新技术,化危为机迎难而上,充分发挥人类的主观能动性,将生成式人工智能掌握在自己手中。

猜你喜欢

鸿沟人工智能数字
婚姻不是用来填补鸿沟的
2019:人工智能
人工智能与就业
答数字
鸿沟为界
数读人工智能
数字看G20
下一幕,人工智能!
真实:作文难以逾越的鸿沟吗?
让学生都跨过说话的“鸿沟”