APP下载

基于ChatGPT的智能传播发展挑战与应对策略

2023-06-25何静

阅江学刊 2023年3期

摘 要ChatGPT的推出代表着人工智能生成技术的重大突破,从单模态到多模态的大模型迭代,其使用范围被极大拓展。作为生成式预训练机器人,其激发的生态性变革将深刻影响传媒行业,重塑智能传播理念与应用,并引发各类风险与挑战。在传播主体上,生成式预训练机器人将引发技术可否成为侵权法律主体的争议;在传播内容上,生成式预训练机器人存在生成偏见与不公内容的风险;在传播受众上,生成式预训练机器人存在泄露用户隐私的风险;在传播效果上,生成式预训练机器人将加剧数字和知识双重鸿沟;在传播优势上,生成式预训练机器人的国内外研发水平存在较大差异。需追随技术发展应用,通过伦理和法律责任主体的明晰,对偏见和误导信息生成的整治,隐私保护和安全防护的提升,普惠信息能力与素养的建设以及资本与技术研发资源的集中,形成多元有效的应对策略。

关键词ChatGPT 智能传播 风险挑战

作者简介:何静,工学博士,北京航空航天大学文化传播系助理教授。

基金项目:国家社会科学基金项目“统筹文化发展和安全的理论建构、风险评估及防范机制研究”(22VRC059)

一、引 言

2023年3月15日GPT-4发布仅半月之后,上千位科技专家即联合发出公开信,呼吁所有AI实验室立即暂停训练比GPT-4更强大的AI系统。公开信中提到的AI模型为ChatGPT,由美国人工智能研究实验室OpenAI研发,采用生成式预训练的转换器和人类反馈的强化学习技术,具备学习和理解人类语言、根据对上下文的理解和记忆与人展开多轮次对话的能力。ChatGPT的推出意味着人工智能生成技术(Artificial Inteligence Generated Content,简称AIGC)的重大突破,虽然其仍然会输出存在事实性错误的信息,“看似一本正经地胡说八道”,但其可靠性较以往的大语言模型已获得了大幅提升。而最新迭代的GPT-4版本更是从以往在自然语言处理或计算机视觉等方面独立推进的单模态模型,拓展至融合图片、文本等形式的多模态模型,后者更符合人类知识学习的习惯,也将增大AI智能涌现的可能性,必将引起基于传统人类中心主义的智能传播理念与过程的变革。在实际应用中,ChatGPT作为生成式预训练的聊天机器人,一方面,符合OpenAI开放要求的用户通过简单注册即可直接使用,这极大地减少了它的使用障碍,并促使其顺利实现更大范围的创新扩散;另一方面,该生成式预训练机器人虽然存在预训练语料滞后的弊端,但OpenAI为其添加的插件将使它获得网络接入能力,从而可以浏览实时更新的网页并与之互动,使用功能与应用场景被大大扩展。伴随其在传媒行业的应用,关注其可能对智能传播产生的风险与挑战,形成应对策略显得尤为迫切。

基于此,本文将首先从ChatGPT引发的智能传播变革出发,阐述其对人类主义传播理念和现有智能传播应用的影响;其次,将从归责争议、偏见不公、隐私泄漏、双重鸿沟和中外差距五个方面关注ChatGPT引发的智能传播挑战;最后,立足技术发展变动,纳入底层技术治理,从伦理和法律责任主体的明晰,对偏见和误导信息生成的整治,隐私保护和安全防护的提升,普惠信息能力与素养的建设以及资本与技术研发资源集中五个方面探讨有效应对上述风险的策略和路径。

二、智能传播变革:人技同构下的多元应用

伴随应用场景的快速拓展,ChatGPT或将引发整个人类世界的变革,新闻传播行业亦不例外。事实上,无论是20世纪的香农-韦弗提出的传播过程的数学模式,还是近年来机器新闻写作与算法分发的应用,处于十字路口的新闻传播学一直绕不开和机器的纠葛。技术的进步在促使传播媒介由口语转向纸质媒介,又从报纸衍生到广播、电视、互联网的同时,也引发传播外在环境的深刻变化。同样,在智能传播时代,ChatGPT的推出也必然对智能传播的内在传播过程和外在传播环境产生影响。

第一,以人类为中心的智能传播理念将被重塑。不同于以往智能传播过程中,机器或技术更多地是作为中介连接起人类传播者和受众。未来,更接近通用人工智能的ChatGPT将直接成为人的传播对象,被纳入更广泛且更深入的传播过程,使得人类传播与人机传播广泛交融,即在不同阶段,生成式预训练机器人将和人类一样都可成为传播过程的主动传播者或者被动接受者,也都可作为不同传播过程中的传播媒介,实现自身作为数字劳动“主体”在语言逻辑、人机交互和价值生成上的超越性。曹克亮:《人工智能的神话:ChatGPT与超越的数字劳动“主体”之辨》,《长白学刊》,2023年第4期。在这一生成式预训练机器人主体性增强的背景下,单方面呼唤传统人文主义的回归既可能徒劳无功,也无益于人工智能技术日益强大下的传播发展。当下需要考量技术与人的同构性,即技术作为人存在的重要维度,共有和分享了人的主体性,成为内在于人的主体性之中的存在方式蒋晓丽、钟棣冰:《“数据主义”滥觞下的新技术人文:智能时代算法传播的价值转型》,《四川大学学报(哲学社会科学版)》,2023年第2期。,形成与时俱进的人类和技术关系理念,寻求对二者主客体二元对立的突破,探索“人-技”共生的新人文主义。

第二,业界将迎来更为多元化的智能传播应用。例如,在新闻内容模态上,ChatGPT可突破模态限制,以文本、图片、视频等多模态形式辅助内容生成与加工,大幅提高新闻内容的多样性;在新闻报道领域中,除去在体育新闻和财经新闻上已被熟练运用的智能化报道,ChatGPT可在社会、政治等更多领域进行智能化内容生产,使人工智能技术惠及更多领域传媒工作者;在新闻报道体裁上,除去常见的消息报道,ChatGPT可利用较为智能的数据分析能力以及文本生成、整合与润色能力,覆盖更具复杂性的新闻体裁,大幅提高传媒生产效率;在舆情分析监控上,ChatGPT可能突破传统意义上形式单一的模板化舆情分析,并根据舆情治理主体的需求,在舆情事件发生后快速生成更具个性且更详细的舆情分析报告,提高舆情治理主体的应急管理能力;在媒体用户运营上,ChatGPT不僅能以更加拟人化的交流提升用户体验感,更能以智能化的对答合理表述观点,在抚慰用户情绪的同时,回应用户需求,增加用户黏性,提升媒体运营效率。

三、ChatGPT赋能下的智能传播风险与挑战

尽管现阶段ChatGPT难以撼动整个新闻传播行业的生存发展,但仍会引发更大范围与更深层次的风险与挑战。一方面,大模型在通用领域展示出较强的竞争力,但其仍未突破智能涌现“奇点”,距离强人工智能仍有不小差距;另一方面,新闻报道的真实性强调记者需深入现场进行采访调查,从信源获取的信息才是公认的一手信息,所以从目前来看,传媒从业者仍难以被完全替代。此时,面向以ChatGPT为代表的生成式预训练机器人对内在新闻生产流程以及外在传播环境的影响,关注其引发的生态性变革,针对性地分析其在传播过程中引发的风险与挑战,将成为传媒行业跟随技术发展、寻找变革机遇的必然要求。

(一)传播主体的归责争议

以ChatGPT为代表的生成式预训练机器人将冲击传统的媒介进化逻辑,进一步凸显技术主体性,在技术进步对归责基础的影响加大时,对技术能否成为法律意义上的侵权传播主体的争议也会加剧。1979年保罗·莱文森在其博士论文《人类历程回放》中对媒介史进行了宏观考察,印证了媒介进化过程中的人性化倾向。汪润、靖鸣:《媒介演进:截屏和截屏图片的人性化趋势与功能补偿——以保罗·莱文森媒介进化理论为视角》,《西南民族大学学报(人文社会科学版)》,2022年第7期。他的论述表明,媒介按照人性的回归逻辑展开各阶段的进化,并在这个过程中对前一阶段的感官失衡进行补偿,整体上体现了人在技术发展中的主导地位。然而,技术突破促使人工智能技术的主体性凸显,也对这一乐观判断产生了质疑。在法律相关的探讨中,有学者认为未来的强人工智能将对归责基础——自由意志发起终极挑战,强人工智能体将被认为具有和人一样的自由意志,能够成为法律主体,从而承担完全的法律责任。朱振:《归责何以可能:人工智能时代的自由意志与法律责任》,《比较法研究》,2022年第1期。虽然强人工智能的到来还是未知,但对其归责进行探讨却显得愈加紧迫。然而,相较于欧盟、美国和英国较早地展开了人工智能侵权领域的立法尝试,国内现有法律对人工智能生成作品的权利与责任归属主体仍未做出明确认定。在中国首例人工智能生成内容的著作权归属案件中,法院依据现行立法保守地认为,涉案文章中的图形由人工智能软件自动生成,不符合图形作品的独创性要求,原告对其享有著作权的主张不能成立,这一判决随即引起了学界和业界的分歧。林嘉琳:《中国首例人工智能生成内容著作权争议与前瞻分析》,《新闻爱好者》,2019年第12期。而ChatGPT的到来将催生更多的类似案件,人工智能是否能成为侵权的法律主体的争议,也会随着智能化水平的提升不断加剧。

(二)传播内容的偏见和不公

以ChatGPT为代表的生成式预训练机器人囿于研发主体和语料的限制,以及模型的黑箱特性,将产生在意识形态、民族文化等方面具有偏见与不公的传播内容,基于“超真实”状态加剧拟态社会与现实的偏离。作为美国本土公司所研发的一项人工智能技术,ChatGPT不可避免地蕴含着算法开发者、数据写入者的价值观念和意识形态。囿于模型的黑箱特性,ChatGPT生成内容难以像人类新闻报道一样进行事实核查,这意味着无论在意识形态、民族文化上,还是在表达语种上,该大模型的数据来源都可能存在偏见与不公,并将直接影响到使用者对客观现实的认知。鲍德里亚关于后现代资本主义的担忧指出,人类社会的经济生产和意识形态逐渐融为一体,在媒介助推下将产生一种“超真实”。这种超真实将使客观世界中的现实事物被拟像吞噬,进入毫无对照、自我指涉的符号世界,从而呈现“比真实还真实”的状态,最终形成一种在精神裂变与贫瘠下被数字模型操纵与被符号统治的真实崔健、李真真:《鲍德里亚“超真实”理论的审思与批判》,《北京行政学院学报》,2022年第12期。。这似乎将成为ChatGPT主导传播内容后的悲剧,通过海量语料习得类人化自然语言文本生成能力的聊天机器人,可能在媒介等同作用下,生成让人类感到比真实还“真实”的含有偏见与不公的内容,并进一步促使原本就被各强势力量左右议程设置的拟态社会更加偏离客观现实。

(三)传播受众的隐私泄露

以ChatGPT为代表的生成式预训练机器人内容理解与生成能力的提升,将扩大其被信任度与使用范围,来自所属公司的主动售卖与来自恶意用户的攻击利用都存在可能,容易造成大规模的传播受众隐私泄露。ChatGPT的发布大规模地扩展了人机传播的覆盖范围,广泛的人机交互也为该模型的迭代产生了有利条件。由于多轮次对话与上下文理解能力的提升,ChatGPT常常被使用者信任地视为问题解答者,人类在这一过程中亦会充当被传播者,自觉地通过主动提供交流对话所需的材料寻求帮助,这可能导致用户过分关注与其对话产生的成果与收益,从而在与该聊天机器人的对话交流中泄露个人隐私信息。在GPT-4发布半个月后,伴随各种担忧出现的还有实际的限制措施。2023年3月31日,意大利数据监管机构宣布将禁止使用ChatGPT,并指责ChatGPT及其母公司开放人工智能研究中心(OpenAI)违反了《欧洲通用数据保护条例》中的规定,未能遵守用户数据保护法规。《意大利宣布禁用ChatGPT》,http://kuaixun.cankaoxiaoxi.com/#/index。在这项限制措施发起前,OpenAI官方也发布了由用户数据泄露问题引起的临时中断服务报告。文章表示,“我们在本周一关闭 ChatGPT 几个小时前,部分用户可能会看到另一位活跃成员的姓名、电子邮件地址、支付地址、信用卡的后四位和信用卡到期时间”《ChatGPT服务中断,还泄露对话记录?OpenAI披露详细故障信息》,http://weibolcom/1875034341/Mgu8x3xtf。。此外,因对ChatGPT的误用和滥用,三星电子企业机密信息遭遇被泄漏的风险。现实的例证已然说明ChatGPT在信息安全上的风险,而其在数据获取的合法性、用户使用边界界定上仍无法被确认。与此同时,一方面在资本逐利的浪潮中,OpenAI的商業属性难以保证其是否将用户隐私信息的安全性置于优先位置,另一方面,该模型自身也存在被恶意利用的可能,导致更大的隐私泄漏危害。

(四)传播效果的双重鸿沟

以ChatGPT为代表的生成式预训练机器人对不同开放程度的国家,以及对不同水平的劳动者的职业冲击上,均存在接入与使用上的差异,使得传播效果产生数字鸿沟和知识鸿沟“双重鸿沟”,加剧劳动者的异化。经典的数字鸿沟理论可以指向生成式预训练机器人相关技术的开发应用在不同人群间存在以接入、使用等为代表的差异,而知沟假说则可以论证在加载了生成式预训练机器人的大众传媒的作用下,不同人群间社会经济状况的差异或将进一步导致其知识水平的差异,伴随这种差异的逐渐加大,可能进一步影响人们的生存发展。无疑,ChatGPT及其衍生应用将加剧数字鸿沟和知识鸿沟,在新一轮的技术生态变革中拉开不同人群之间的差距。一方面,由于ChatGPT并未对中国境内用户开放,普通用户通过正常的网络访问无法直接使用该聊天机器人,也就部分丧失了接入生成式预训练机器人的机会,然而具有较高知识水平或经济状况较好的人群,则可以通过其他渠道实现对该聊天机器人的顺利访问,并能在日常生产生活中直接使用,大幅提高自身作业效率,这种境域的客观限制将直接导致双重鸿沟的加剧;另一方面,由于ChatGPT展示了在重复脑力劳动方面强有力的竞争性,这将对重复脑力劳动者的职业产生冲击,导致大范围的重复脑力劳动者失业,从而剥夺其进一步提升信息技术使用能力与信息素养的机会,难以实现社会价值。体力劳动者虽然暂时不会丧失工作机会,但重复脑力劳动者被以ChatGPT为代表的人工智能技术替代后,可以攫取更大利益的资本家将凭借对相关技术的占有获得更大的权力,而被资本家雇佣的体力劳动者或将被隔绝在新一轮技术革命之外,沦为强资本和人工智能技术的附庸,被进一步异化。

(五)传播优势的中外差距

以ChatGPT为代表的生成式预训练机器人在国内外现阶段的研发水平上存在客观差距,在未来的迭代中面临预训练数据语料难以共享,高质量语料缺失的障碍,使得中国在该技术引发的新一轮变革中的传播优势被削弱。不可忽视的是,国内外的大模型研发水平仍存在巨大差异。百度在GPT-4发布的第二天即宣布开放中文版ChatGPT“文心一言”的邀请测试,作為对标ChatGPT的产品,“文心一言”虽然展示出了其在中文语境理解能力上的优势,但在上下文记忆与联系,内容纠错与生成速度等多方面仍明显落后于GPT-4。百度创始人、董事长兼首席执行官李彦宏在发布会上表示“也不能说我们完全Ready了,‘文心一言对标ChatGPT、甚至是GPT-4,(这样的)门槛是很高的”可杨:《文心一言云服务下周一上线 百度为何要抢首发?》,《每日经济新闻》,2023年3月21日。,承认了“文心一言”与ChatGPT之间的差距。而未来的突破更值得担忧,福柯关于话语的研究指出,作为权力规定下的知识话语最终“穿透和控制”了我们的日常生活,规定了我们的欲望、道德和行为。李钧鹏、茹文俊:《治理手段——福柯权力观的另一维》,《华东理工大学学报(社会科学版)》,2022年第2期。然而,大模型训练语料无法共享迫在眉睫,做“中国版ChatGPT”所需要的高质量中文语料大多被储存在各家企业或机构的“后花园”里无法共享。 王林:《微软中国CTO:“中国版ChatGPT”需要的高质量中文语料难共享》,《中国青年报》,2023年3月25日。此外,近年来中文互联网在内容生态上的凋零,也加剧了高质量中文语料的缺失。这种现实造成的数字鸿沟将直接阻碍由高质量中文语料喂养的大模型的研发迭代,进而预示着福柯所述的权力规定下的话语的消亡:在 ChatGPT 引发的新一轮生态变革中,中华文明可能存在被其他文明所支配的风险,即失去传播的主动优势,甚至在其他语言的表征逻辑中被遮蔽,失去自身文明的话语权。

四、追随变动的多元应对策略

ChatGPT的发布显然推进了人工智能的发展,在技术奇点还未到来时,过早地对相关技术发展作出强硬的限制或将抑制技术创新,并削弱技术创造出更大的生态价值。但面临其带来的上述风险与挑战,传媒行业仍需将以ChatGPT为代表的生成式预训练机器人的底层技术治理纳入应对策略,同步展开学理上的广泛讨论,以及实践上的适度管控。国家互联网信息办公室也及时起草了《生成式人工智能服务管理办法(征求意见稿)》,对以上问题明确了相关法律权益,提出了监管规范要求。

(一)伦理和法律责任主体明晰

对于上述传播归责主体的争议,可以借鉴我国急用先行的立法经验,优先展开生成式预训练大模型生成内容责任主体划分的探索,并尝试与其他领域协同推动人工智能生成内容的基础性立法。首先,可参考既往人工智能伦理与法律的探讨。例如,有学者就以针对现行法律中人工智能新闻传播侵权相关的救济规则,将经典的“卡-梅框架”理论作为分析工具,分析现行救济规则的正当性与不足。冯灼兰:《人工智能新闻传播侵权法律救济规则的选择——以“卡-梅框架”为分析视角》,《科技与法律(中英文)》,2022年第1期。其次,应借鉴医学诊疗与自动驾驶领域已展开的人工智能生成内容责任主体认定的实践经验,挖掘适合当下社会发展预警的智能传播价值与伦理标准,赋予医务人员以自由裁量权,同时配置适当的再判断义务,确保机器判断的益处被安全采纳。郑志峰:《诊疗人工智能的医疗损害责任》,《中国法学》,2023年第1期。最后,传媒从业者可结合技术进展,积极建言献策,促进智能传播相关立法对现有法律法规的协调,鼓励传媒管理者针对行业使用的大模型预训练语料、模型使用算法、模型消耗算力进行整体性规划。

(二)偏见和误导信息生成整治

对存在上述偏见和不公的传播内容,可以在专属大模型预训练中对数据来源、数据质量进行把关,重视先进技术对大模型的监督管理,提高人机传播所需的新素养。首先,关注预训练大模型的技术逻辑与新闻专业主义的冲突,尽可能丰富大模型预训练语料来源,增加多样性和公平性数据,着力构建中文语料数据库,通过信息筛选和质量控制,以及用于传媒领域的高质量标记数据的扩展,提高大模型内容生成在中文表达上的合理性。其次,基于伦理原则在模型设计中的应用,结合大模型技术架构,探索提高模型可解释性的技术和方法,以优化人机对话生成策略,减少偏见和误导信息生成,并加载毒性内容传播预警技术,规范人工智能生成内容的管理和分发。最后,一方面要培养人们与人工智能交互的思维能力,使其在与机器交互的过程中共同提升,通过对人机传播过程中对话内容的审慎性反思,提高自身的数据素养与人工智能素养;另一方面要加强人机传播伦理教育,警惕人类在使用过程中的恶意诱导、利用行为,引导技术向善。

(三)隐私保护和安全防护提升

对于上述传播受众隐私的泄露,应在客观技术监管与主观使用素养上同时发力,重点关注恶意用户的行为预警与技术的规范化使用,积极寻求多领域的监管合作。首先,加强隐私保护和安全防护技术的应用,加强对大模型预训练语料的数据监管,推动研发人员在数据使用时进行隐私信息脱敏,并尝试差分隐私技术的应用,与此同时,传媒从业者在模型使用中要加强自身媒介素养,通过提升对技术的理解与把握,在人机对话中提高对隐私信息的敏感性,恪守新闻的公共性。其次,对潜在恶意用户进行危险行为预测和干预,限制以ChatGPT为代表的生成式预训练机器人的访问权限与范围,减少恶意用户攻击损失,并规范以ChatGPT为代表的生成式预训练机器人的使用场景与使用方法,降低使用依赖和隐私信息泄露的可能性。最后,在以ChatGPT为代表的生成式预训练机器人开源无望的当下,应对人工智能生成内容中的隐私泄露问题建立多领域的协作,传媒业可探索跨界合作下的监管措施,面向传统人工智能公平性治理应对措施的不足,结合各领域的应用需求对大模型的关键性要素进行整体评估,提高大模型的透明度与鲁棒性。

(四)普惠信息能力与素养建设

对于上述传播效果的双重鸿沟,可以在覆盖各类人群的普惠性信息能力与素养上进行积极建设,关注以中文语料为基础的大模型学习与使用,尝试大模型与多种第三方插件的协同创新,并对在以ChatGPT为代表的生成式預训练机器人引发的变革中处于弱势地位的人群进行一定的资源倾斜。首先,各类群体都应积极关注以百度和阿里为代表的企业正在加速研发国内大模型,虽然无法通过正常渠道直接访问OpenAI发布的ChatGPT,但迭代中的中文大模型仍值得广泛学习使用。其次,积极开展适用于中文大模型的第三方插件集成的人工智能技术与人类的优势互补,再结合中文大模型在中文信息理解上的竞争力与国内现有互联网技术研发与应用在电商、短视频等方面的优势,大模型与产品在结合时应探索更普惠的新型商业模式,使技术变革惠及弱势群体。最后,利用现有的公益组织与社区资源进行侧重性帮扶,重点关注信息能力与素养较差的重复脑力劳动者与体力劳动者,提高弱势群体在生成式预训练大模型上的理解与使用能力。

(五)资本与技术研发资源集中

对于上述中外传播优势的差异,可以结合我国的制度优势,以资源的集中促进中国版ChatGPT的研发迭代,积极推进数据开放与共享,结合生产力发展需求,实现大模型的多元应用。首先,结合中国集中力量办大事的制度优势,探索符合国情的预训练大模型研发路径,在牢固树立人民主体地位的前提下,有效发挥社会主义市场机制,促进技术和资本在大模型研发上的资源集中,使传媒业在以ChatGPT为代表的生成式预训练机器人引发生态变革后产生的新赛道上形成竞争优势。其次,积极促进传媒行业内容生态建设,激励细分领域专业优质内容输出,推进高质量中文语料的积累,在此基础上协调国内人工智能技术研发企业之间的合作,打破各自为政的数据壁垒,促进技术优势企业实现开放共享。最后,结合以ChatGPT为代表的生成式预训练机器人引发的生态变革落实大模型的多元应用,警惕技术孤岛,使这一创新成果实现促进传播效能提升的多元应用,以人工智能加持下的传播新技术反哺实体经济,促进更大范围的生产方式变革,释放生产活力。

综上,以ChatGPT为代表的生成式预训练机器人引发的智能传播变革会在传播主体、传播内容、传播受众、传播效果和传播优势等多个方面诱发多重风险,这需要针对技术发展特性提出全局性、长远性、有侧重、可执行、创新性的应对策略,并保持对技术发展的客观认知,坚定人类在现阶段智能传播中的核心优势。以ChatGPT为代表的生成式预训练机器人虽然可以在短时间内大量学习人类几千年来积淀的知识,但无论其学习范围多广,仍无法逃脱二手知识学习的桎梏。而人类从事传媒行业时,无论内容生产还是用户运营,其工作逻辑仍可受益于既往亲身实践得来的经验。多模态大模型可以覆盖多种表达类型,叠加上传感器后也可以获取多种感觉通道,但从心灵到身体的复杂构造与联结,仍使得人类显现出无可比拟的奇妙与优越。世界是变动不居的,机器或可在更多流程上替代传媒从业者的工作,但传媒从业者仍可在与机器的交互中寻觅人类传播的独特优势。

(北京航空航天大学文化传播系已录取硕士研究生冯元柳对本文亦有贡献,特此致谢!)

〔责任编辑:李海中〕