APP下载

ChatGPT对学术出版实践的影响及其应对*

2023-12-25罗剑萍

关键词:学术人工智能内容

任 宇,罗剑萍,甘 甜

(1.武汉理工大学 交通与物流工程学院,武汉 430063;2.武汉理工大学《交通科技》编辑部,武汉 430063;3.武汉大学 水利水电学院《中国农村水利水电》编辑部,武汉 430072)

ChatGPT(Chat Generative Pre-trained Transformer,聊天生成式预训练变换模型) 是依托GPT(Generative Pre-trained Transformer,生成式预训练变换模型)模型架构,由人工智能实验室OpenAI于2022年11月30日上线的一种人工智能技术驱动的聊天机器人应用程序,它拥有优秀的对话生成、语言理解和文本生成能力,更可即时吸收用户的反馈信息,不断训练语言模型,修正错误答案[1]。

最新的GPT-4多模态预训练大模型是ChatGPT的升级版本,于2023年3月15日发布,它能接受图像和文本输入,再输出正确的文本回复。实现了识图能力、输入字数限制、回答准确性的飞跃式提升。ChatGPT凭借其强交互、强理解、强生成的功能,可承担多种情景下的自然语言处理任务,已被应用于对外贸易、金融、健康医疗、艺术、法律、计算机等领域[2]。考虑到其强大的文本生成能力,ChatGPT对文学、新闻、行政、出版等行业更是造成了重大的冲击和影响。目前,其已经可在受限文字数量下完成基础层面的文字生成、翻译、编辑和校对,以及个性化出版等功能。

ChatGPT的优点为通过人类反馈强化算法(Reinforcement Learning from Human Feedback,RLHF)实现人机交互与预训练,并通过问答的方式帮助使用者获取相关信息,数据获取结果相对更加全面便捷、指向性更强。其缺点在于受内部算法和外部数据来源的局限,相较于搜索引擎,其时效性差,数据价值随时间衰退性增强;同时,其逻辑处理能力相较人工差,相较于多生产变量的情报任务辅助,对单一情报环节更有效;此外,因其训练模型的黑箱效应,存在提供错误信息、虚假信息和含偏见信息的可能,更因其反馈强化算法的机制,还可能造成研究成果的提前泄密[3]。

一、ChatGPT对学术出版的影响

当期刊编辑、研究人员和出版商还在讨论ChatGPT在文献发表中的恰当位置时,ChatGPT已经在学术文献中正式亮相。据英国《自然》(nature)杂志网站报道,至少有4份已发表和预印本上的论文使用了ChatGPT作为论文的“合著者”。毋庸置疑的是,随着元宇宙指向的虚拟世界对标并超越真实世界的目标,人工智能内容生成(AI generated content,AIGC)技术在强化学习(RLHF)和转移学习模型架构(transformer)飞速发展的推动下,对于学术出版产生深刻改变只是时间问题。

对于该现象,美国顶尖学术出版机构已率先作出积极响应。国际顶尖科技期刊《自然》[4]《科学》[5]《细胞》和《柳叶刀》、JAMA均已发表了关于学术论文中使用人工智能写作工具或关于ChatGPT作为作者署名的相关规定。除此之外,澳大利亚、印度和英国等国,以及中国的香港大学、暨南大学和天津师范大学等多个知名出版机构和科研院所均提出对ChatGPT的相关使用申明。研读以上机构申明内容可以发现,学术出版机构对于在学术出版作品中使用ChatGPT,其在意或重点关注的是ChatGPT在学术伦理和数据上的真实性、正确性,以及其版权规则、数据涉密的合法性等方面的影响。

为研究ChatGPT对学术出版实践的冲击和影响,我们具体从ChatGPT对学术出版的工作内容、工作流程和工作模式三方面展开分析。

(一)ChatGPT对出版工作内容的影响

在内容创作方面,对于一个学术论文新手,ChatGPT可以输出文章结构、制定文章标题、提供研究方法的基本原理、配合信息检索等,但这充其量只是辅助。其无法完成优秀学术论文所需要的观点创新、手段创新,以及试验或最新的统计数据。对于学术论文,它无法完成最新的田野调查或获取实验数据,无法完成实验数据基于多学科综合知识的分析推理与总结,更无法完成较复杂的数学统计与计算。最终只能形成文辞优美、语言规范、内容堆叠、富含想象力和创造力,以及缺少逻辑递进的“烟雾感”十足的论文。

在学术出版审稿方面,ChatGPT首先受限于其提问的文本字符数量限制,故无法将全文整体输入后等待审稿意见自动生成,若将文章拆解后输入,ChatGPT受限于其逻辑分析能力和数据处理能力,也不可能达到学术出版审稿所需要的系统高度,故而可知,用ChatGPT审查专业的学术论文基本不可行。

在编辑加工方面,ChatGPT不仅在撰写与作者、读者、审稿人的事务性邮件和翻译的任务时,表现优异,其产出的行文格式规范、内容流畅周到,同时为编辑加工中的基本检索和知识核查提供便捷。但是使用者也发现,不论是对于参考文献著录、核对等规则性较强的任务,还是在文章数据逻辑性判断和纠错等需要逻辑思维的任务方面,其响应结果均不尽人意,对于文章结构的调整优化其表现也并不稳定。

在出版发行发面,已知ChatGPT可跟据读者的语言习惯、阅读偏好和历史记录,推荐相关的图书或文章、生成个性化的文章或书籍、出版策略和推广方案。但因时间和精力限制,笔者暂未对ChatGPT在发行中的应用进行相关尝试。

基于以上体验,笔者认为ChatGPT在学术出版领域其功能有限,它可以威胁出版流程中大量“打杂”类型的工作,但它替代不了专业人士在工作中的提纲挈领和融合创新,反而可以作为高端专业人士的效率提升工具,协助产生更高水平的学术数据与成果。

需要注意的是,其对于出版物的版权所属造成了巨大的冲击,含有AIGC的论文一旦出版,其出版权、著作权、改编权的归属问题自动生成,这部分内容是否应负责,由谁负责,如何负责,均是需要思考和厘清的问题。

(二)ChatGPT对出版工作流程的影响

ChatGPT具有迅速抓取文本重点的能力,故而在指令明确的情况下可以更加快速地完成对输入数据的收集、预处理和基础分析,从而解放生产力,使作者、审稿人、编辑从繁杂的检索中解放出来,将更多的时间和精力投入到稿件的遴选、判断、组合、分析、总结中去。此外,得力于ChatGPT在检索、翻译和公文撰写方面的优异表现,在某种程度上实现了编辑加工需要的多重工具整合,在事务性工作上,其帮助减少了工作应用程序的切换和筛选,进而提高工作效率。但其受限于自身的数据时效性、真实性、公正性,仍然需要经过人工选择和复核。故在当下,ChatGPT仅可提高工作效率,简化流程还为时尚早。

(三)ChatGPT对出版工作模式的影响

基于ChatGPT在客服问答和公文撰写方面的表现,曾有非专业出版人士断言“以后的大论文都可以用ChatGPT写了”“编辑要失业了”,但事实证明,ChatGPT根本无法在脱离人类提供的文章中心躯干和具体要求指令下完成一篇合格的学术论文撰写。

虽然ChatGPT还处于起步状态,但已有实践证明ChatGPT可用于基础的出版事务中。但由于ChatGPT在学术出版内容生成和工作流程简化中的功能有限,短期内注定只能在一定程度上取代部分简单类型的工作,改变内容生产模式和出版产业上下游链条,冲击以往学术出版的纯人工工作模式,进而推进学术出版进入人机协同模式[6]。

二、ChatGPT对学术出版提出更高的伦理及技能要求

人工智能生成的内容一旦生成并出版,其真实性、正确性、合法性、安全性、公平性、可解释性和数据隐私性便对人工智能技术用于学术出版提出了更高的要求,而作为人工智能技术的使用者和受益者,也是学科建设和人工智能的贡献者,从出版全周期视角,对作者、审稿人、编辑都将提出更高的要求[7]。

(一)更高的伦理要求

人工智能生成内容的出版会引发一个基本的伦理问题:谁来对ChatGPT的生成内容负责?通常而言,论文作者应对文章的观点和内容负责,但ChatGPT显然无法承担论文过程中出现谬误甚至造假的责任。其次,论文作者在发表作品时,都必须声明自己的作品是“原创”的,这就意味着使用ChatGPT编写和生成文本是完全不可接受的,这种行为其实可能间接剽窃了他人的知识成果。而这也是目前大多数学术期刊和出版商“封杀”ChatGPT的主要两点缘由。

在第十四届全国人民代表大会上,科技部部长王志刚在两会“部长通道”上谈及ChatGPT也强调,“要注意科技伦理,注意怎样趋利避害”,作为推动科技发展的学术出版相关者,从内容生产方、管理方到出版方,都应守好学术出版伦理的层层大门。

1.出版伦理的第一道大门:ChatGPT开发者

考虑到ChatGPT是基本文本语料喂养和RLHF强化训练的产物,它所表达的是文本数据、强化算法和系统设计者的价值取向。故作为ChatGPT开发者,其伦理底线决定了ChatGPT产生内容的真实性、正确性、合法性、公平性。

作为ChatGPT的开发者和平台,不仅应当强化审查义务和数据清洗义务[8],还应做到以下方面:针对算法模型的“黑箱”机制,公示和说明本产品的算法基本原理;申明信息的截止时间及来源,完成信息可靠性的评估及验证;通过加盖电子水印或其他无法轻易抹去的标签,对所提供的信息和作品进行标记,履行信息搬运、传播的溯源责任。

2.出版伦理的第二道大门:作者

作为可能引入ChatGPT进入学术出版流程的第一源头,作者应承诺和执行仅将ChatGPT作为使用工具,应当承担声明义务和注意义务,并对其中涉及到的伦理相关问题保持敏感。故在写作投稿过程中应对ChatGPT及其他大语言模型的使用与否,使用原因、方法和产生结果[9]进行依次披露说明,其行为包括但不限于以下注意事项:

其一,在投稿时,须主动披露在论文形成过程中是否使用ChatGPT或其他大语言模型生成论文架构、主体及结论,若有使用,应承诺并执行仅将ChatGPT作为工具使用。

其二,需主动声明ChatGPT使用的必要性,以及本人在论文成果中的贡献和提出的创新性内容。其本质上一是体现除去ChatGPT生成内容后的作者创新程度,二是赋予作者说明自身学术贡献的机会,有助于最小化出版方因作者说明使用ChatGPT而否认科研成果价值的可能性。

其三,应在论文的材料和方法(或类似部分)中主动披露所使用的工具种类和版本,以及具体使用方式,明确其使用场景及是否完成了创造性内容的生成。

其四,应提高甄别能力、主动审查ChatGPT提供内容的真实性、正确性和公正性,提防引用虚假及错误信息导致研究成果的失误,以及错误成果继续进入数据库造成信息数据污染,形成恶性迭代循环,保证论文内容的严肃、正确和可追溯。

其五,基于ChatGPT及其他大语言模型的数据训练机制,应注意科研成果的信息和数据安全,杜绝涉密内容的投喂。

其六,出于对学术出版物权力和义务归属的考量,不建议将人工智能工具作为作者进行署名。

3.出版伦理的第三道大门:审稿人

作为可能引入ChatGPT进入学术出版流程的源头之一和学术成果出版的第一把关人,审稿人也应承诺和执行仅将ChatGPT作为审查工具使用,这具体包括但不限于以下注意事项:应承诺不因个人对大语言模型工具的看法而带主观倾向性评价含有AIGC内容的学术成果学术水准;承诺以坚实的学术水平为依托,以辩证的视角,审查含有AIGC的学术论文和审稿过程中相关检索内容的真实性、正确性和公正性,维护科研成果与数据的纯洁性和可追溯性;承诺提高自身甄别和使用ChatGPT的能力,以此审查作者无意或有意的学术不端行为;出于对作者发表权和涉密信息的保护,承诺不对ChatGPT直接投喂稿件内容或片段性地输入稿件关键内容。

4.出版伦理的第四道大门:编辑

作为可能引入ChatGPT进入学术出版流程的源头之一和学术成果出版的第二把关人,编辑部同样须承诺和执行在学术论文编辑加工中,仅将ChatGPT作为使用工具。

与审稿人类似,编辑同样需要做到提高自身甄别和使用ChatGPT的能力,以此审查作者无意或有意的学术不端行为,以及承诺不对ChatGPT直接投喂稿件内容或片段性地输入稿件关键内容等。

除此之外,作为出版主体之间的纽带,编辑自身需加强对ChatGPT及其他大语言模型的了解,积极传递人工智能手段在学术写作中的优势、劣势、能力范围及伦理情景,引导学术出版参与主体正确合理认识和使用ChatGPT及其他人工智能手段,在应用限度内用好科学技术这把双刃剑。

5.出版伦理的第五道大门:行业

从学术出版生态角度出发,为应对ChatGPT进入学术出版领域,出版机构及行业相关组织后续需做到以下注意事项:

其一,出版机构需尽快厘清ChatGPT等人工智能生成内容对学术出版的影响,明确本单位对于采用ChatGPT等人工智能手段用于出版流程的态度,制订考虑ChatGPT等人工智能技术后的针对全体出版参与者(作者、审稿人、编辑、发行方)的承诺书和协议书,修订已有出版流程的相关条例及约定。

其二,在行业组织层面,拉响防范意识的警铃,加强ChatGPT对学术出版的相关研究,帮助学术出版参与主体更好地防范ChatGPT不当使用造成的出版伦理事故;发布行业技术指南,推进出版行业风险及应急处理建设。

其三,联合学术机构,推动学术诚信终身追责制度以倒逼学术出版参与各主体在使用ChatGPT等人工智能工具时的合法化、规范化;同时应当帮助情报机构完善数据分类、分级,数据获取,以及数据利用制度的相关法律和规程。

(二)更高的技能要求

1.更高的人工智能使用水平

因ChatGPT的计算和反馈机制特点,ChatGPT回复内容的匹配度和价值指向与提问方法十分相关。鉴于ChatGPT对于知识获取途径和效率产生的重大变革,对ChatGPT更了解、更会使用这种工具的人大概率会击溃那些不了解、不会使用这些工具的人。但同时需要注意的是,对于那些人工智能手段掌握水平不高的使用者,极有可能陷入ChatGPT单一、非多元且存在伪造可能的输出内容之中,因此,ChatGPT对于出版从业者提出的是更高的掌控人工智能工具使用的能力。

故对于学术出版参与主体,需要掌握如下技能:

其一,更加了解ChatGPT的设计原理和使用特点,从功能和伦理上悉知ChatGPT的使用边界,警惕被虚假、偏见、错误信息等误导。

其二,掌握适应ChatGPT设计原理的对话提问技巧。除了需要具有简短、精确表达的能力外,可能还需要掌握通过切换提问语种,使ChatGPT调取其他语言环境的数据,形成数据的丰富与对照验证,以及在提问时通过设定提问者和回答者的年龄、身份、立场等信息,使回答针对性最大化的能力等。

其三,掌握更高的数字素养[10],因ChatGPT等人工智能生成内容可能已经进入了数据循环,故具备识别、挖掘、确认由ChatGPT产生的内容,判断数据是否“干净”、数据是否具有多样性的能力,对于发现被有意或无意隐藏的理应声明的人工智能生成内容十分重要。

其四,具备批判性和创造性思维。ChatGPT的实质只是人类认知能力的承载体,加以其数据来源的滞后与未经验证,以及其算法的黑箱效应,敢于质疑ChatGPT等人工智能生成内容、挖掘数据和资源,进而贡献数据智能的使用者,才是真正可以高质量借力人工智能的学术推进参与者。

科学界需要尽快界定哪些技术可被允许,以及我们应该如何记录它们的使用。在相关领域试图禁止使用人工智能似乎是不现实的,学术出版的参与主体当下应该学会如何使用,而不是仅仅探讨是否应该允许使用这些工具。

2.更专业和具有深度的学术能力

由于ChatGPT的算法运行机制,其生成的内容必然有包含各种错误的可能。在论文写作、审核编辑加工中的各参与主体,作为人类知识的学术数据资源的生产者、组织者和管理者,对于维护学术知识的正确性和纯净性具有首当其冲的责任。

由于ChatGPT模型目前还是封闭系统,无法从外部存储器或数据库中检索信息,这意味着它可能无法准确还原事实,同时信息更新滞后,也无法回答新近发生的事情。各出版参与主体如能紧跟学术前沿,扩大专业广度,挖掘知识深度,掌握更加及时和垂直[11]的学术信息对于识别和排除虚假、错误、偏见、不合法等信息,具有直接帮助。其一方面可以避免走入学术错误和学术数据污染的歧途,另一方面可以避免进入ChatGPT等人工智能工具无效使用与错误奖励的环节。

三、出版参与主体与ChatGPT共生共智

在ChatGPT等大语言模型和数字出版发展强劲的当下,传统学术出版模式已经不可能“圈地自萌”“独善其身”,更有说法甚至认为ChatGPT将取代现有的人类学术出版编辑。尽管基于上文分析不难得出ChatGPT取代人类学术出版编辑的说法为时尚早,但可以确定的是,具有危机意识和进取意识的人工编辑或许需要主动或被动地与ChatGPT建立良好的协作关系。

基于ChatGPT的认知人造物属性,不论其如何智能,都难以独自支撑整个学术出版实践。在走向共生的学术出版实践中,需要的是通过人类出版参与主体与人工智能工具的协同合智,彰显科学技术与人工伦理之间的共生,破除二者在学术出版活动中的竞争关系;用科学正确的态度对待AIGC,既不能过分依赖人工智能技术,也不能采取漠视甚至反抗的错误行为,而应在出版过程中实现双赢,共同助力走向共生的学术出版实践。

(一)定位价值取向和功能,弥补智能技术手段的不足

人类本体和人工智能技术之间存在着质的差异,但也正因为这种差异,使他们具有互补优势、彼此相互吸引,这恰好为他们在学术出版实践中的合智助力提供了现实可能。

不可否认,ChatGPT等大语言模型在开源情报获取和预处理及深度学习方面具有独特优势,然而必须看到,人类所特有的抽象逻辑思维、非理性情感、道德认知等能力是大语言模型等人工技术手段暂不具备的。因此,在走向共生的出版实践过程中,不可仅依靠人工智能技术,同时也不能再单纯地依靠人工参与者,而是应当充分发挥各自的优势。

具体来说,人工智能时代下的学术出版应学会利用人工智能技术所特有的算法、逻辑分析等智能优势,解放人类生产力,启发思维创意,为走向共生出版实践提供技术支持,实现其更快速、更便捷的价值取向;而将人类所特有的情感、批判思维、抽象逻辑思维等特有优势应用于出版实践中,补充基于技术本质属性的功能缺失(例如逻辑思维和情感感知及处理等),实现感性、伦理和公正的价值取向。

同时,受限于ChatGPT等大语言模型的数据来源及算法限制,人类出版参与者还可以通过检索或调查手段及时更新情报信息,补充缺失数据,审核内容伦理道德,组织研究手段,实现学术成果创新。

(二)坚定人类参与者的主体地位,合智助力学术出版实践

从原因导向来看,基于ChatGPT的人造物属性,在人类出版参与者与AIGC合智助力走向共生的学术出版实践过程中,人类无疑是居于主导地位的。人类利用自己的知识资源在各种分析结果及各种例证之间进行比较选择,承担的是学术出版成果和流程的引路人角色,而人工智能手段和智能生成内容更多的是承担摆渡者的角色,二者之间以数据信息为纽带,彼此互补促进,合智助力走向共生的学术出版实践。

从结果导向来看,人工智能技术在学术出版中产生的影响,从根本上来讲取决于使用他的出版参与主体和依托数据资源,而掌握相应技术的参与主体和依托数据的现有状态与未来状态取决于学术出版成果的积累,而这里学术成果的积累取决于既往的无AIGC参与的人工出版参与主体和经过人工验证的学术和出版实践贡献,而人工出版参与主体的出版行为取决于人工出版参与者与AIGC的合智助力。故以智养智,方能迸发更为强大的生产力量。

由此可见,ChatGPT和其他人工智能手段的出现不仅是传统学术出版行业和参与者能力提升的契机,也是学术出版成果推动人工智能技术发展的重要一环。

(三)完善出版单位人员岗位体系、业务方向、工作模式

在出版业务方面,ChatGPT的出现要求出版单位积极深入地思考ChatGPT与本单位出版业务的关系,制定或更新与出版参与主体的关于人工智能工具使用的相关协议,维护学术出版秩序。

在岗位体系方面,ChatGPT和其他大语言模型的出现对学术出版队伍的能力提出新的要求,其需求的不再是基本、浅层的信息技能,而是能够实现创新性出版服务的组织架构和人才组成。

在工作模式方面,鉴于ChatGPT等AIGC技术的大势所趋,学术出版行业需积极应对其可能带来的冲击与风险,从出版单位及行业层面须积极营造有利于人类出版参与者与AIGC合智助力的工作环境,帮助出版参与者快速适应、适当变革、有效响应。

(四)善用人工智能手段,维护学术生态环境

ChatGPT很大程度上可能帮助出版机构更便捷、高效地识别内容普遍或过时的低学术水平稿件,从而倒逼学术工作者在论文写作中减少无意义的内容堆砌或重复发表,生产出不适合提示生成的较长文本,以及那些还未被收录的最新热点事件的真正有学术价值的高质量的学术研究成果,从而更加切合我国的学术评价代表作制度。为此,首先要引导出版参与者加强对ChatGPT等大型语言模型工具局限性的了解和认知,深化对学术诚信风险的警示,预警“大型语言模型”的歧视性导向,加强知识产权、隐私与安全风险的科普教育,将有助于维护我国学术生态和科研数据的有序和纯洁;其次要从国家层面思考和完成我国学术数据资源的数据库建设及使用规则,完成自主可控的本土ChatGPT工具建设,避免陷入“人有我无”和被人“牵着鼻子”走的被动局面,同时,需制定相关政策和法规来规范ChatGPT等AIGC工具的开发和使用,并加强监管实现科技发展和社会责任的平衡。

四、结 语

综上,从短期看,ChatGPT等大语言模型并不会对学术出版工作内容、流程产生颠覆性影响,但是从长久来看,其必定会改变学术出版的工作模式,最终走向人类学术出版参与主体与AIGC技术的共生共智,AIGC技术对于学术出版参与者提出了更高的伦理和信息技术及专业能力的要求。学术出版个人及行业应从共生共智的战略思想出发,找准人类出版参与者的价值和功能定位,在完善学术出版工作组织架构和体系等方面积极应对。

当下,我国已有“文心一言”、“通义千问”、“盘古大模型”、“360智脑”等类似ChatGPT功能的人工智能产品,其相较于ChatGPT的以英文资料占主体的训练数据集,这些本土的大语言模型的生成内容可能更符合我国实际情况和数据需求,其市场占有率的本土化可能性更高,但是目前这类人工智能产品的研发还在起步阶段,不论是产品功能还是技术更新均不成熟。大语言模型对于我国学术出版实践的影响还需结合中国本土开发的类ChatGPT功能的人工智能产品进行再研究。与此同时需要注意的是,在人工智能的冲击下,内容生产的社会必要劳动时间可能会减少,导致部分人工劳动价值降低。不会使用ChatGPT等AIGC技术的劳动者可能将无法获得收入,无法进行消费,从而逐步被剥离出经济循环。为此,如何引导“前人”更加无痛地完成新技术的迭代同样重要。

猜你喜欢

学术人工智能内容
内容回顾温故知新
如何理解“Curator”:一个由翻译引发的学术思考
对学术造假重拳出击
2019:人工智能
人工智能与就业
数读人工智能
下一幕,人工智能!
主要内容
学术
创新需要学术争鸣