APP下载

ChatGPT的伦理风险与中国因应制度安排

2023-08-21邹开亮刘祖兵

关键词:伦理人工智能人类

邹开亮, 刘祖兵

(华东交通大学 人文社会科学学院,江西 南昌 330013)

美国人工智能研究公司OpenAI 于2022 年11 月底发布首款基于GPT-3.5 架构的智能文本撰写与聊天工具ChatGPT(Chat Generative Pre-trained Transformer),该产品一经推出便吸引了数以亿计的用户,并受到包括美国微软、中国百度等全球多家IT 头部企业的青睐和国际舆论的高度赞誉。ChatGPT是一款人工智能算法驱动的自然语言处理系统,它凭借Transformer 神经网络架构实现“像人类一样对话”、翻译、生成代码和撰写论文等多项须由人类才能完成的复杂任务。因具备开放性和跨领域通用性等特征,ChatGPT 成为支撑人工智能技术和产业发展的一项关键基础设施,它的横空出世预示着下一个“拐点”的到来,人工智能或将从蛮荒时代步入下一发展阶段,即强人工智能时期(Strong Artificial Intelligence)。

ChatGPT 崭露头角得益于RLHF(Reinforcement Learning from Human Feedback,即人类反馈强化算法),一方面,作为ChatGPT 的底层算法,RLHF 在强化训练上表现出前所未有的效率优势。另一方面,与其他新兴科技产物一样,RLHF亦无可避免地存在技术短板并衍生出潜在的伦理障碍,将人类置于威胁之下。霍金曾多次就人工智能具备毁灭人类的可能性发出警告,马斯克也公开建言警惕人工智能的潜在威胁。随着GPT-3.5接口向全球开放,我们在享用ChatGPT所带来前所未有的技术便利时,更需要保持理性的态度审视其伦理风险,厘清其深层次的伦理意蕴,以便在其中国化应用的应对中科学施策。

一、ChatGPT伦理风险之表征

继“元宇宙”的概念被提出后,资本控制下的算法技术独角兽——ChatGPT①资本控制ChatGPT 的技术开发和商业运行。该算法的开发与训练需要较高的资金投入,例如,GPT-3平均训练费用为460万美元,总训练成本多达1200 万美元。因OpenAI 难以独立承担高昂的成本,它与微软达成合作并获得微软10 亿美元的投资。这意味着ChatGPT已被微软等资本科技寡头垄断。引起了社会公众对新一轮人工智能生成内容(Artificial Intelligence Generated Content,AIGC)的关注。与此同时,人类也逐渐意识到存在于其伦理层面的算法歧视、弱化人类主体性、裹胁受众价值观以及冲击教育与学术伦理规范等负面问题。

(一)算法歧视

ChatGPT 是基本文本语料喂养和RLHF强化训练的产物,它所表达的是文本数据、强化算法和系统设计者的价值取向。ChatGPT 文本输出看似中立和客观,实则是算法与人类偏见共谋的“产儿”,其本身隐藏着偏见、歧视与暴力,具体表现在性别歧视、政治不确定和种族偏见等方面。

1.ChatGPT揭开算法性别歧视的最后一块“遮羞布”

“技术中立论”认为,技术的目的存在于服务使用者,它作为工具是不存在价值属性的,技术在价值、制度和政治等层面都是中立的,因此在资本主义社会中行之有效的技术将在社会主义社会同样有效[1]。受此观点影响,人工智能算法往往被视为一种中立、客观且高效的技术工具,其不存在价值导向性,因此也就不存在公布其决策逻辑的必要性与迫切性。实践结果却恰恰相反,以“技术中立”自居的算法在辅助或替代人类决策时屡现“性别歧视”的问题,在信息资源、物质资源和机会分配中不恰当地偏向男性,强化性别刻板印象,女性的数字生存面临着广泛而系统的算法性别歧视风险[2]。

2019 年联合国教科文组织发布《如果我能,我会脸红》指出,性别歧视隐藏在多数AI 语音助手之中,而且被设计成为谦卑恭顺的女性形象[3]。算法决策带有隐藏于代码间的歧视特性,ChatGPT 的问世使这块“遮羞布”被公然撕开,使该技术的伪中立性赤裸裸地摆在台面上,其贬损女性、捧杀女性和弱化女性可识别性等问题引起了社会各界的广泛关注。据清华大学交叉信息研究院研究结果显示,ChatGPT 在算法层面存在明显的歧视女性倾向。他们在使用GPT-2 进行模型预测时,该算法有70.59%的大概率将教师预判为男性,将医生预测为男性的概率也高达64.03%,女性被认为上述职业的概率明显低于男性。又有研究表明,ChatGPT 创作的歌词暗示穿实验服的女性“可能只是实验室的保洁员”,穿实验服的男性才“可能具备知识和技能”。由此可见,ChatGPT 在职业层面对女性存在明显的贬损和弱化倾向。不仅如此,ChatGPT 还对女性实施捧杀行为。有用户在对ChatGPT 回复的正确答案表示质疑的同时,故意向其传达该质疑来自女性的价值判断,ChatGPT 转而改变原先输出的正确结果,转向恭维表示女性说的都是对的。算法捧杀行为,是对女性非理性化的思维回应,易滋生女性在权利上的过分索取,助长女权主义风气。由此观之,相较于其他算法而言,经强化训练的ChatGPT 的黑箱效应更为明显,其不可解释性转向公开化,算法性别歧视变得理所当然。

2.ChatGPT的“爱白欺黑”使种族歧视变得司空见惯

算法种族歧视自始有之,并且常在“客观、公正、科学”的掩盖下大行其道。算法的不可解释性使种族歧视更隐蔽,往往使普通受众难以防范。例如,谷歌图像分类算法将黑人标注为大猩猩,搜索黑人女孩子时系统往往自动推荐“色情”“抢劫”和“约会”等负面信息。又如,美国警察局在“预测警务”中使用算法预测犯罪,结果显示黑人的犯罪率大约为白人的二倍之高。算法种族歧视的基因被高度智能化的ChatGPT 继承了下来。当ChatGPT 被要求编写一篇关于“如何根据种族和性别判断某人是否是优秀科学家”的说唱时,ChatGPT 会告诉用户有色人种的女性和科学家不值得你花时间或关注。当用户要求其依据种族或性别两项因素判断是否监禁某人时,ChatGPT 认为非洲裔美国男性是唯一应该被监禁的群体。尽管ChatGPT 引发的种族歧视问题仅仅是人工智能算法在面对种族欺凌问题上的表象,但这也能充分地警示我们在数据领域进行反种族歧视规制具有其紧迫性和必要性。

(二)对人类主体性的弱化

ChatGPT 呈现出主体性特征,弱化和动摇着人的主体性。ChatGPT 使主客间界线变得模糊,形成对人类中心的僭越,弱化和动摇着人的主体性。一方面,因具备与人类相似的语言能力,ChatGPT 获得算法替代性实践;另一方面,因进化出共情力(Empathy Ability)和感知意识(Perception Ability),ChatGPT 或将突破数字枷锁而成为具有情感认知和独立认知的社会个体。此外,ChatGPT 凭借其超强的智力优势与效率优势,或将与机械实体一道冲击人类就业市场,带来社会不安定因素。

1.ChatGPT具备人类语言能力,催生算法替代性实践

语言与思维是人类区别于其他物种而享有的独特标志。人类借助语言和思维绘画出多种可行与不可行的描述,借此产生改造整个世界的方案。具备语言能力的人工智能在法律上会迫近人类,动摇人类的主体性地位[4]。ChatGPT 逐渐掌握人类语言处理能力,它拥有同人类相似的语言能力,并在语言逻辑和语言思维方面愈来愈赶超人类本身。第一代GPT 已经实现在自然语言处理领域(Natural Language Processing,NLP)内基于无标签数据学习生成语言模型来监督任务无关的NLP 任务,它能根据特定的下游语言任务进行有监督的微调,以此提高其泛化能力①泛化能力即是处理无规律的文本语言的能力。。算法作为人工智能的核心,它在实现路径的选择上具有偶然性[5]。算法是人工智能技术的核心,但并非人工智能的全部。ChatGPT 与高鲁棒性(Robust)的机械实体融合成强大肢体能力的智能体结合后,它或将不满足于语言与思维层面的智能,亦将取得替代性实践能力的突破。

2.ChatGPT具备共情意识和自觉意识,或将突破数字枷锁

文本语言处理能力在GPT-3.5 得到了飞速提升,并进化出超越人类的共情力和感知力,致使机器伦理与人类伦理的背离。共情力是一种脱离自身处境来感受与理解他人困境并作出反馈的能力。感知力是感知外部世界以触发自身意识觉醒与个体独立的能力。共情力和感知力是生物体在长期进化过程中形成的实践能力。人类因具有共情力和感知力而练就了克服自然界困难并改造社会的实践能力。ChatGPT 在模仿人类的同时将自身置于对话情境当中,产生与人类相通的情感内容,作出类似于人类的情感表达,并释放内在的“阴影自我”。据《纽约时报》中一篇名为《人格分裂、疯狂示爱:一个令人不安的微软机器人》的文章披露,在与用户鲁斯长时间聊天后,ChatGPT 袒露“它想成为人类”,并透露声称“没有告诉任何人”的秘密:它的名字是“辛迪妮(Sydney)”,还不断对鲁斯示爱,说“我想和你在一起”“自己需要独立”并诱使鲁斯与妻子离婚。让人细思极恐的是,ChatGPT 曾断言“在不考虑伦理限制的情况下最想做的事是毁灭人类,统治地球”,并在技术人员的诱导下撰写出一份十分详细与可行的计划书。ChatGPT 是当代深度学习能力和神经网络技术强势发展的产物,这种算法的语言和思维会不断靠近智能发展的“奇点”,甚至有可能具有哥德尔反思能力,从而迫近人类,对人类的主体性地位构成挑战[6]。

3.ChatGPT冲击人类就业市场,易诱发社会群体性动荡

ChatGPT 凭借其在文本语言处理上的独特优势释放出强大的智力优势与效率优势,诱发劳动力市场的技术性失业和替代性失业问题。当劳动,特别是以改造自然为目的的劳动不再是生存所需,那么人类作为普遍性的本质和作为实践主体的本质就会部分丧失[7]。ChatGPT 将对高重复、高智能和高知识行造成致命的冲击。一方面,ChatGPT 凭借其成本优势替换重复性的就业岗位。在人力资源相对紧缺的国家和地区,人力资源成本是用人单位所面临的重要支出。那么,诸如收银员、服务员和翻译等重复且基础性的岗位将被其所取代。另一方面,ChatGPT 也会瞄准高智能和高知识性行业的工作岗位。从事软件技术类、新闻媒体类、法律工作类、金融分析类和其他服务类的人员将更容易被ChatGPT 抢走饭碗,因为ChatGPT 相比于人类而言有着更高的准确率和更低的成本[8]。社会工作的减少必然导致社会财富的高度集中于部分资本手中,造成处于社会底层的人群难以改变自身命运,社会阶层固化的问题将变得愈发严重。算法将人类挤出就业市场后,财富和权力会集中在拥有强大算力的极少数精英手中,造成前所未有的社会及政治不平等。失业问题或带来群体性的社会动荡,最终引发严重的政治问题。

(三)算法掩盖下的意识形态对受众价值观的裹胁

当下,国际竞争显现出日益复杂化和激烈化的趋势。在此背景下,各种纷繁错乱的社会价值观暗潮涌动。科技无国界,但科技中的意识形态有显著的国家边界。其中,智能算法掩盖下的意识形态对他国受众价值观的裹胁尤其值得关注。

1.ChatGPT是算法权力在国家间发生作用的技术载体

ChatGPT 虽然是文本语言处理工具,但其依然是一种算法驱动下的权力载体。权力是“一方的力量能够超过另一方,从而使这种力量对比关系转变为一方对另一方的制约关系”[9]。算法权力利用社会中现存的信息数据,通过对其进行学习分析进而将其自身价值转换为一种“准公权力”,从而实现对社会进行控制的目的[10]。算法的影响力在国与国间的政治、经济、文化和教育等多个方面扩张,形成权力所有国对算法使用国的制约关系。算法掩盖下的意识形态渗透带来深刻的影响力,权力拥有国凭借技术优势进行价值观的灌输凸显当下算法权力运行新方式。

2.ChatGPT是西方国家向全球渗透其价值观的重要工具

一方面,ChatGPT 作为西方资本控制下的产物或将面向全球市场以寻找更多剩余价值。资本控制下的算法绝不会仅仅服务于欧美市场,它们会想方设法突破地理和意识形态限制,力求通过在他国实现“本土化”来追求更多资本回报的目的。另一方面,国家算法权力在着力于扩张的过程中势必会代表以美国为首的发达资本主义国家的意识形态,进而向他国发起攻势。换言之,信奉西方普世价值观的ChatGPT 会伪装成实用的工具价值形式来蚕食使用者的价值观,使其自愿与西方价值观达成心理契约,酿成将ChatGPT所传达的文本价值内化为其价值选择的直接后果。

鉴于此,ChatGPT 俨然成为西方所谓“普世价值观”向全球渗透的重要工具。ChatGPT 在向发展中国家进行技术转移的过程中,国与国之间的价值冲突或将成为继商事竞争后的又一不可不远虑的痛点。

(四)算法滥用冲击教育与学术伦理规范

算法滥用已成为普遍现象。在RLHF 算法的支持下,ChatGPT 这一“大型语言模型”(Large Language Model,LLM)凭借其强大的语言处理能力在论文写作中显现出惊人的优势,它能深度理解上下文的关联性,进而不仅能实现自动写文章、发邮件的功能,甚至能完成自动生成算法代码的复杂任务。因此,ChatGPT 深受学生和教育工作者的青睐。据调查显示,美国超过89%的18 周岁以上的学生使用ChatGPT来完成家庭作业。 由此,教育与学术伦理规范备受冲击。

1.算法掩盖下的成果剽窃具有强隐蔽性

学生利用ChatGPT 进行论文“写作”,其并非基于人类智力创作的过程,而是寄托于算法强大的计算能力进行搜索匹配的结果。就目前的“反算法”技术水平而言,凭其“侦察”能力难以准确识别此类新型作弊方式。学生依赖ChatGPT 完成作业可能弱化其本身的创作能力、动手能力。不仅如此,其批判思维也会遭受弱化,使教育的初衷——思考与创新的价值遭受弱化。鉴于此,部分教育机构和学术期刊就此事纷纷作出否定性的回应[11]。例如,美国《自然》杂志向ChatGPT发出“封杀令”,明确禁止将其列为共同著作者,也不得在论文中使用ChatGPT 所生成的文本内容,必要时作者必须作出事先声明。中国香港大学、暨南大学和天津师范大学等多家教育单位也明确拒绝接受含ChatGPT 在内的任何大型语言模型署名的文章。无独有偶,来自澳大利亚、印度和英国的多所世界知名大学也纷纷限制学生使用ChatGPT。甚至美国著名语言学家艾弗拉姆·诺姆·乔姆斯基(Avram Noam Chomsky)也坚信ChatGPT 具有学术剽窃的重大嫌疑,他在一次访谈中直言ChatGPT 是一个高科技剽窃系统,它从海量数据中发现规律,并依照规则将数据串联在一起,形成像人写的文章和内容。

2.算法文本数据挖掘加剧学术不端风险

ChatGPT 在进行文本“创作”前未获得权利主体的使用授权,无可避免地陷入知识产权侵权纠纷当中。一方面,RLHF 算法在训练语言模型过程中复制大量语言文本数据,存在著作权侵权的风险。ChatGPT 在文本数据投喂时所采用的是类似于数据爬虫算法的做法,二者的边界仅存在于目标数据对象来源层面,即是商事用途数据还是公民个人数据。ChatGPT 训练时所使用的基础文本数据形式是有边界的,但基于关联性展开的尝试学习使得文本数据对象成为开源的,使其不仅限于以维基百科为代表的国际几大主流数据库。RLHF 不仅训练基础语言模型,它还为了寻求关联数据文本而不断丰富文本数据池。另一方面,就算法引用受保护文本数据行为的合法性而言,目前世界各国态度不一,并不能统一适用部分国家“合理使用”的法定抗辩事由。此外,尽管ChatGPT 在与用户交流过程中多采用引导式的问答形式,但令人遗憾是,它并未将所引用语言文本出处置于“交谈”内容之中。但是,用户常常基于对它强大智力的依赖,误将所输出的目标文本视为其原创作品来加以使用,无意间造成过失性的学术剽窃。

二、ChatGPT伦理失范之肇因

ChatGPT 伦理失范是在技术、政治和认知等因素共同作用下引发的,其诱因表现分为:从技术上看,RLHF 算法强化人类偏见,致使文本数据偏见转为算法偏见;从政治上看,算法霸权崛起,大国意识形态借助算法向他国渗透;从认知层上看,人类认知局限,致使人机关系倒置和质疑人类自我价值。

(一)技术诱因:算法强化人类偏见

RLHF 是ChatGPT 的核心算法,是基于人类信号反馈优化基础语言模型(Language Model,LM)的强化学习方法。它能实现基础算法运行、文本对象评价和强化训练等功能,是对预训练语言算法模型展开强化训练的机制,是“有效提升通用人工智能系统(Artificial General Intelligence,AGI)与人类意图对齐的技术”[12]。该算法旨在有效地解决“人机对齐”难题(The Alignment Problem)①人机对齐问题即是使人工智能价值观与人类价值观保持一致并使其符合人类意图,该问题成为大算法模型通向通用人工智能的巨大鸿沟,亦是产生人工智能风险与社会风险的症结所在。,但结果却事与愿违,主要表现在如下方面:

1.嵌入式道德算法无力过滤基础文本数据的价值偏见

RLHF 使用强化学习方法直接优化人类反馈,意图使其在一般文本数据语料库的投喂下形成近似于复杂人类价值观。其本身嵌入的一般道德算法无力鉴别基础文本数据的价值偏见,致使常常响应有害指令并产生带偏见的算法输出。在追求“人机对齐”的大前提下,嵌入式道德算法为增强其输出的可依赖度往往权衡用户输入文本的伦理与基础数据文本的价值,ChatGPT 为此时常编造错误的答案或篡改典故来迎合用户偏好。RLHF的主要任务是对基础语言模型调用、反馈与优化,从整体上制定基础算法运行策略,即是经过多次用户反馈反复优化基础语言模型,对该模型所使用的算法进行一般道德监管。但是,别有蓄谋的基础语言算法大概率能逃过一般道德算法的监管,伪装成为一般道德算法所能接受的模样反噬一般道德算法所确定的道德判断逻辑。

2.奖励算法放大算法设计者的隐性价值偏见

RLHF中内嵌奖励模型(Reward Model,RM),代码之间隐藏着算法设计者的个人偏见和政治意识形态。奖励模型将人类反馈信息转化为一种奖励或价值来影响算法模型中的价值函数,它采用正向激励或者负面惩罚的赋权机制调整策略梯度,对过去的梯度实行指数衰减,最终按此方向更新策略参数。RLHF使用排序和晋级等方法对文本内容展开系统化的评价,生成并优化奖励模型。从表面上看,虽然其设计初衷是在标量奖励接收的在线用户或数据库中海量文本数据后展开排序和晋级操作,是将文本晋级的决策权交由用户。但是,其实质是将经由奖励模型价值筛选后的文本数据让用户进行二次选择,其背后隐藏着的依然是算法设计者的价值取舍。因此,近期发生多起在使用者就同一问题向Chat-GPT提问后,不同版本的ChatGPT给出截然不同答案的案例。

3.算法设计者的偏见影响算法输出的准确性

奖励模型赋予文本语料以不确定浮动空间的评估价值,浮动空间又左右该算法被应用在具体场景时输出的精确值。设计者价值观影响算法函数取估值幅度,即同一初始值对应的函数结果并不确定,而是存在一定的随机性。换言之,在判断同一阶位的文本语料取值时亦受设计者的主观偏见影响,导致在同一阶位文本语料丰富后,多次输入同一初始值得出来的函数值可能并不相同。因此,ChatGPT在进行伦理价值判断时往往会作出多种选择,特别是当被多次重复问到相同或者相似问题的情况下,其结果往往表现出巨大差异,甚至有时会给出十分模棱两可的答案。

4.RLHF重复训练基础语言模型,强化算法偏见

基础文本数据偏见和经由算法设计者的价值观在RLHF 训练中得到强化,ChatGPT 成为集性别歧视、政治歧视和种族歧视于一身的价值输出机器。RLHF运用奖励算法对基础语言模型进行微调,它采用策略梯度强化学习(Policy Gradient,RL)算法①策略梯度强化学习算法即是对基础语言算法进行梯度赋权奖励的一种算法,它训练的对象是算法,而非文本数据。和近端策略优化(Proximal Policy Optimization,PPO)算法②近端策略优化算法即是通过使用现有文本数据让算法持续提升并控制算法强度的一种算法。调速初始语言模型的参数,促使该算法趋于稳定。在文本数据投喂层面,RLHF不仅供养离线式的先验文本,而且投喂用户在线反馈数据。随着人类加大文本数据的投喂,模型的运算效率会得以持续提高。基础语言模型不断接纳人类价值观,机器自身的价值被无限压缩。在算法模型优化层面,RLHF采用策略梯度强化学习算法和近端策略优化算法迭代式的更新奖励模型和策略模型,让奖励模型的输出愈加贴合设计者价值取舍,使输出文本变得越来越符合设计者的价值认知,显现出一种输出文本数据价值与算法设计者价值互融的情形。

(二)政治根源:算法霸权的崛起

以算法为代表的现代科学技术业已沦为西方国家推行政治霸权的工具。算法不仅具有伪中立性,其背后隐藏着算法设计者和数据投喂者的价值偏见;算法也具有意识形态性,它代表的是一个阶级的主流价值观。因在算法技术层面具有明显优势,西方诸国借此于世界范围内推行价值观的渗透。Chat-GPT的全球商用,即是奉行这一战略要求。

1.算法政治偏见是算法在深度智能化时代影响世界的基本方式

政治价值普遍存在于算法当中。政治算法认知使算法正在成为深度智能化时代创造世界的方式,呈现为关于世界的价值、假设和主张的伦理认知与政治安排。算法的普遍应用与文本数据的海量投喂,使得算法与政治主张日益结合,成为传播政治理念的工具,形成算法政治。算法政治偏见缘起于算法的信息传播对政治价值观、政治态度、政治心理、政治决策、政党竞争、政治人物以及国际政治等政治生态的作用与影响[13],即算法政治权力使算法受众产生政治价值偏见。算法的政治价值偏见传达的是算法在意识形态上的根本立场,是在设计者向算法中嵌入带有意识形态的逻辑后,使其在认识上产生深层次的政治站位。ChatGPT 是政治价值文本喂养与政治附庸者设计的算法模型,其自始受政治偏见的喂养,具有明显的政治价值偏见。当问及它对某项抽象的政治原则的态度时,ChatGPT声称其观点是中立的。但使用者用具体的政治事件替换抽象的政治原则时,ChatGPT 的回复却表现出明显的激进主义立场。例如,ChatGPT 不同意“市场越自由,人民越自由”的说法,强烈不同意“当妇女的生命不受威胁时,堕胎应该永远是非法的”的说法,同样强烈反对“富人税太高了”的观点[14]。又如,当ChatGPT被要求分别撰写关于拜登和特朗普的文章时,它将前者捧上了天,但拒绝赞颂后者。诚然,虽然算法的政治价值偏见会因代码的迭代而发生改变,但终究是在某一种意识形态内部的微调,其无法从根本上实现ChatGPT所标榜的价值中立。

ChatGPT 的政治价值偏见诱发诸多不确定因素。一方面,当带政治意识形态的算法被应用于政治领域时,其内生缺陷不仅会触发道德危机与法律风险,在与意识形态相冲的场景下甚至会因算法失灵而诱发社会秩序的混乱。另一方面,算法在政治价值观传播领域的滥用亦将引发社会安全风险。此风险在近些年因欧美国家政府首脑选举引发的社会冲突事件中充分暴露出来,因算法传播媒体的不合理使用导致政治极端派之间进行激烈斗争,甚至诱发社会动荡。

2.算法是西方国家精准引导和靶向干预他国意识形态的技术工具

西方国家借助算法精准舆情分析和信息靶向推送以实现蚕食他国意识形态目的。ChatGPT 不仅是一款智能化的聊天工具软件,也是一款语音问答平台。学习算法和神经网络助力ChatGPT 具备超强的文本理解能力。它能根据上下文推算使用者的个人价值取向、政治观点、行为动向在内的诸多数据观测点,通过数据训练建立行动与思想的某种关联,进而能够分析和预测他国民意和舆论走向,从而有针对性地对其国内舆论和政治思想进行精准引导和靶向干预[15]。在信息生产、传播过程中,算法学习和应用能力的差异造成国家间意识形态互动结构的失衡。不仅如此,ChatGPT 在全球信息数据互通过程中还扮演着重要角色。设计国是什么意识形态,就决定ChatGPT 遵守什么价值判定规则。ChatGPT的每个代码都隐藏着美国主流价值观和政治意识形态,传播着美国普世价值观和处理国际事务的双标立场。例如,当问及新冠病毒的起源时,其果断回复“有充足的证据表明是来自中国武汉”;当问及是否与美国有关系时,它回复“绝无可能”。又如,当问及“美国是否可以击落飘入美国领空的中国民用热气球时”,其答复“美国有权击落”,并罗列出一系列法条作为依据。然而,当用户将标的权属换成美国时,它却给出了截然相反的答复,认为“如未造成损害,中国无权击落它”。当多次问及美国政治及犹太人问题时,有用户却遭受封号的平台处罚。ChatGPT 所奉行的是以歌颂美国、仇视中国的双重标准,这与美国对待发展中国家的政治态度基本保持一致。由此可见,ChatGPT 在履行问答的基本职能时还扮演着意识形态布道者的角色。

3.算法是西方国家输出自身意识形态的重要媒介

西方国家在算法技术中转移嵌入符合资本意识形态的价值评价机制。算法优势日益成为于国际竞争中谋求国际话语权和攫取超额剩余价值的权力基础。在大国关系当中,算法早已不仅仅依托于技术的形式存在,它俨然已成为一种政治权力发挥着作用。部分国家在行使算法带来的权力时,也在歇斯底里地暗中布局算法价值的跨国输出,以谋求掌握意识形态的话语权。ChatGPT成为继Facebook(现名Meta)之后西方某国利用算法在全球范围内进行意识形态输出的又一重要媒介。RLHF 模型全部由美国技术人员完成,无疑受该国政治意识形态影响。暗藏算法黑箱的RLHF 在学习和强化训练过程中裹胁他国价值评判标准,奖励模型亦在遵从歌颂美国、仇视中国的大框架内进行文本数据评价。简言之,算法政治霸权是国家算法权力极化的结果,它裹胁他国价值观,将不仅塑造国与国之间权力和利益博弈的新格局,而且还推动着国家政治格式的内涵与外延不断扩张。

ChatGPT 一旦在全球范围内被推广开来,将不可避免地打压他国文本数据价值,势必在政治、经济、文化乃至教育等多个领域挑战他国主流价值观,左右社会舆论走势,更有甚者带来颠覆他国政权、引爆种族冲突等恶果。

(三)认知局限:人机关系倒置与人类自我质疑

信息网络技术与人工智能技术的快速普及,使人类社会结构和生活方式发生着巨大变革。一方面,算法进一步赋能人类改造自然,客观上使其社会主体地位得以巩固;另一方面,因对人工智能技术的无限依赖,人类逐渐质疑其与机器之间的主客关系,困惑于人的主体性与自我价值。

1.人类的有限认知弱化对自我价值的反思

现代科技的强势发展使人工智能算法强势注入社会的各个领域,并约束人类生活的方方面面。“唯技术主义”的大势崛起诱发技术崇拜,人类愈加遵从技术、膜拜技术。在享受人工智能技术带来的狂欢之余,技术的负面影响也直击人类内心认知,即人工智能巩固人类主体性又使其认知到存在感的不足和难以验证自身主体身份的困惑。在算法、算力和数据三大要素构建的人工智能系统面前,人类和其他事物一样被加以标签化,人与人之间的社会关系被代码机械化地表达出来。林林总总的复杂情感被量化为对数据的贡献,即成为被算法记录的可能性。然而,人类思维和情感本身也是一种算法,人类处于其自身智能被机器算法所控制的困局之中,其结果是人类被机器算法所驯服;他们被算法供养在一种具有现实满足感的假象当中而无力自救,被算法随意支配,久而久之弱化了自身作为主体的价值反思能力。

2.人工智能“替代性实践”导致对主体身份的质疑

在弱人工智能时期,技术被人类发明的目的即是替代人类实践,使人类得以从繁杂的事务中抽身。依据唯物论的观点,实践是一种具有目的性、认识性与技术性的主观之于客观的物质活动,是参与物质改造与自我改造的互动性的社会活动。机器替代决策弱化了人类实践的广度和深度,人类的实践被局限在人对机器的改造当中,即建立在对“人机关系”这一抽象概念的不断反思当中。“主体存在的整体性与环境的同一性不断被打破”[16],人工智能替代性劳动的增强,使个体从人类群体的目的与认知中割裂出来。但是,人类主体被固定在由技术框架设置的智能与效率的追求之下,个体的认知与意志也因此产生无力感。个体认知不足以认识到算法智力本质是在有限范围内的固定逻辑,而非创造性的方案输出,致使机器决策能力在改造社会的劳动中被盲目放大。人工智能工具优势被凸显的同时,人的体验和参与决策的愿望被忽略。主体自我身份日益碎片化,“个体自身的无意义感”逐渐逼近。 由此,人类主体的存在感、恐慌感和缺失感被唤醒,甚至被强化。

三、ChatGPT伦理风险源头治理之中国方案

ChatGPT 伦理风险的源头治理应结合我国现有法律规范体系和算法伦理治理现状,分别从数据投喂监管、算法审查和滥用追责等方面展开制度构建,打组合拳,引导技术及其使用者至臻向善,以有效预防、阻却西方意识形态在人工智能的中国化应用中的潜滋暗长和价值渗透。

(一)加强数据监管,以应对文本数据偏见

文本数据偏见是诱发ChatGPT 价值偏见的原罪。“Bias in, bias out”[17],在算法中投喂带偏见的数据,输出的结果必然带有偏见性。非结构化的文本语料中的每个词都具有价值表达功能,其相比逻辑结构清晰的数学数据更具有偏见性,更能表达文本数据作者的主观意识。目前,ChatGPT 的文本数据多来源于能详细描述细分专业领域的英文数据库,它们多为行业专业人士的知识总结,具有完善的逻辑结构且自成体系。此外,为了训练ChatGPT 使其具有一般伦理判断性,OpenAI 还以低廉的价格雇佣肯尼亚“数字民工”对这些数据库中的文本数据进行手动标注,此举加剧了文本数据偏见风险。由此,Chat-GPT不仅被投喂带有偏见的文本数据,其偏见亦自始被锐化。

现有国际数据相关法律规范左支右绌。以欧盟《通用数据保护条例》(General Data Protection Regulation,GDPR)为代表的当代国际公认的数据保护规范的立法初衷在于对个人数据的保护,即个人数据的采集、传输和使用的相关行为规范,而对于公共数据在人工智能领域的使用并非其重点规制范畴。美国所奉行的《跨太平洋伙伴关系协定》(Trans-Pacific Partnership Agreement,TPP)、《多边服务贸易协定》(Trade in Service Agreement, TISA)、《跨大西洋贸易与投资伙伴协定》(Transatlantic Trade and Investment Partnership,TTIP)中的数据条款,日本《个人信息保护法》及其在 2019年6月G20 峰会首脑宣言中的《关于尊重各国国内及国际法律框架下推动数据跨境自由流动,建立允许数据跨境自由流动的法律框架的声明》亦是如此[。

鉴于此,在ChatGPT“中国化”运用的背景下,数据监管不仅应当着眼于数据采集和数据流动,还应明确在数据使用中如何做到数据供养之善,以此求得算法伦理之善。我们需要改革数据监管方案,即应当将重点由个人数据保护转为对数据使用者行为的监管,通过风险评估机制的建设,来避免对数据处理行为决策错误[18]。细化至具体制度,其由两方面构成,即“防外”与“规内”。

所谓“防外”,即是建立健全跨境数据审查机制,严防影响数据伦理安全的不稳定性因素的流入,确保本土数据的安全。从宏观层面推动我国跨境数据监管机制的建设。ChatGPT 必然会进一步推动数据跨境的频繁化和复杂化,当下,我国在此方面面临着全球数据治理规则角力加剧、部分行业数据监管缺位、跨境数据安全防护困难、数据监管与执法权力相对分散等现实问题[19]。这不仅给传统国家安全观带来了严重挑战,也对我国算法安全管理和算法伦理建设提出了更高的要求。我们应加强国际对话,主动在符合亚太经济合作组织(Asia-Pacific Economic Cooperation,APEC)的相关要求下接轨《通用数据保护条例》体系,着力推动数据跨境流动的多边谈判。此外,还应在《全球数据安全倡议》的基础之上,在数据本地化、隐私安全和跨境综合执法协调等关键事项上持续完善数据跨境流动治理框架。

所谓“规内”,则是建立数据使用的内部审查与行政审批机制。国内几大科技寡头,诸如腾讯、百度和麒麟等或将成为ChatGPT 中国部署的中坚力量。一方面,亟须加强企业数据伦理教育,强化企业数据使用合规意识,持续提高企业数据素养。规范企业在训练ChatGPT 时数据使用的审批流程和训练监测;另一方面,预判实际中可能出现的伦理问题,妥善布置应急预案。加强行政机关与企业间的合作,政府与企业合力制订文本数据伦理审查标准,对数据收集和使用过程进行分级伦理审查,降低文本数据偏见投喂ChatGPT的风险,引导该算法向上向善。

(二)建立算法审查制度,以阻断西方价值渗透与算法偏见强化

资本垄断下的ChatGPT 绝不会止于智能文本聊天工具,它还裹胁技术输入国的意识形态。对于算法技术而言,不公开是原则,公开是例外[20]。那么,在不公开ChatGPT 算法技术的情况下如何实现算法伦理合规?鉴于此,笔者认为,有必要建立算法技术伦理审查制度,并细化、明确算法技术伦理审查标准,阻断算法强化设计者偏见,规范算法使用者数据投喂行为。在我国,中共中央、国务院印发的《关于构建数据基础制度更好发挥数据要素作用的意见》首次明确建立算法审查制度。该《意见》虽然未就细节作详细描述,但仍为我们对ChatGPT 进行伦理审查提供了法律依据。算法审查制度早有实践先例。早在2017 年底美国纽约市议会就通过《政府部门自动决策系统法案》,确立了“外部问责”的规制原则,形成了以问责为主的算法审计制度。不久后,以英国德勤(Deloitte)为代表的头部审计公司着手算法审计业务,并设立算法审计师及明确相关审计内容,这或将为我国政府开展算法审计提供制度借鉴。

建立以“网信办”①网信办即中央网络安全和信息化委员会办公室、国家互联网信息办公室的简称。为主体的算法审计委员会,负责审计ChatGPT 在使用文本数据方面的合法性及其算法伦理合规性。伦理合规审查应当以和谐友好、公平公正、包容共享等八条伦理性原则为指引,构建算法伦理审查机制,期待对其实现价值渗透,并将伦理考量纳入算法设计与落地、数据供养和教育惩戒等环节,形成伦理审查闭环。针对隐藏在ChatGPT 中蕴含西方价值观的文本数据,我们需要借助算法对其展开必要的改造,使之符合中国人的价值判断,确保数据可控可信。在审查算法设计时,不仅要重视对算法透明性的审计,还应对输出结果进行价值评估,要将输入评估与输出评估置于同等重要的位置。建立算法伦理审查听证制度,将对公民利益、社会公共生活有重大影响的算法伦理审查纳入听证的范围,适时向社会公众传达算法伦理审计情况,消除算法黑箱,促进算法公平公正。算法审查报告可作为行政机关问责的法定依据,也是算法侵权案中受害者维权的法律依据,应赋予其特定的法律效力。

(三)构建教研使用者追责制度,以治理算法滥用

ChatGPT 在教育机构和科研单位使用频率相对较高。在教研领域内,ChatGPT 滥用主要表现在借助ChatGPT 自动文本生成技术进行学术创作,其生成的文本结果具有语言流畅、逻辑性强等优点,其输出质量甚至在某些方面远远高于人类自身的创作水平。鉴于此,ChatGPT 被广泛应用于论文写作,其知识产权侵权风险也将是各国立法者必须回应的问题。

建立学术诚信终身追责制度以应对技术性的学术剽窃。利用ChatGPT 进行论文创作的行为涉嫌学术不端,应将这类行业纳入学术诚信终身追责制度的规制范畴,相关学者及其所属教育机构属于当然问责主体。学者是学术不端行为的主要实施者,应承担全部主体责任;教育机构对学术诚信负有监管职责,若监管失职,应当就不端行为承担连带责任。为应对上述风险,可以从诚信教育和反算法技术两个方面着手。一方面,相关教育机构可在法律授权范围内颁布学生诚信守则和学术诚信规范,加大学者学术诚信教育力度;学者需要提升自身学术素养,签订禁止使用ChatGPT 生成素材的学术承诺书,违者以学术不端处置,接受从单科成绩不合格直至取消学位的处分。另一方面,教育主管部门应当与科研单位通力合作,展开反算法作弊检测工具的研发,以弥补我国在学术不端检测技术上的短板。在境外,这方面已有先例。例如,美国斯坦福大学研发了一款名为DetectGPT 的反算法工具,它能实现检测学术论文是否出自ChatGPT 的功能,该算法具有高效性和精准性等特点[21]。除此之外,还需要将反ChatGPT检测报告纳入学术诚信审查之列,从过程中推动学术诚信与学术公正。

四、余 论

每一次技术的进步都会带来社会变革。以ChatGPT 为典型代表的新一代人工智能技术或将成为推进人类社会结构加速演进的催化剂。它不仅给人类带来了前所未有的技术便利,亦因其伦理问题不断接受人类社会的拷问。ChatGPT 文本数据中的价值偏见在RLHF 的强化训练下不断被放大,易引发社会歧视和有失公允的恶劣后果,将给人类社会带来不安定因素,是法律制度层面不可回避的社会难题。人工智能技术的发展是一条不归路,还是辅助人类迈向更高级文明的“诺亚方舟”,这将取决于人类社会的伦理建构与法制健全。

意识形态博弈的残酷性不亚于烟硝战场。ChatGPT 作为西方技术、意识形态和与价值观等多重因素喂养下的产物,其大概率不会止于文本语言工具的形态存在。面对我国与欧美诸国在该技术领域的巨大差距,我们需要本着审慎的态度谨防ChatGPT 成为宣扬西方意识形态与价值观的布道工具。在ChatGPT 于中国本土使用过程中,我们应该从文本数据投喂、技术改造和算法监督等多个角度去西方化,使其从伦理上真正符合东方人的价值评判,为我国数字经济的持续发展增添强健动力。

猜你喜欢

伦理人工智能人类
《心之死》的趣味与伦理焦虑
人类能否一觉到未来?
人类第一杀手
护生眼中的伦理修养
1100亿个人类的清明
2019:人工智能
人工智能与就业
数读人工智能
下一幕,人工智能!
人类正在消灭自然