APP下载

应用场景、风险与前景:ChatGPT 类大语言模型时代的学术出版

2023-12-15宋时磊杨逸云

出版科学 2023年5期
关键词:工具学术论文

宋时磊 杨逸云

(武汉大学文学院/汉语写作研究中心,武汉,430072)(武汉大学文学院,武汉,430072)

2022 年11 月 底,美 国OpenAI 公 司 发布ChatGPT 后,人工智能聊天机器人(AI Chatbot)迅速成为“网红”,各领域掀起了与其文本对话、使用其生产内容的网络“狂欢”,各学科也在评估和反思其带来的挑战和机遇[1]。 ChatGPT 是一款经过训练的大语言模型,经过了数个版本的迭代,与之前同类的聊天机器人相比,它能更出色地理解和生成自然语言,能够完成广泛的多种类任务,特别是在整合信息、回答人类问题方面表现惊艳,并且还在不断自动学习、进化和提高。在此之前,AlphaGo 等专用人工智能已经击败了人类的特定技能,而ChatGPT 大大推动了通用人工智能的发展,人工智能接近或者超越人类的时代或许即将到来。ChatGPT 类大语言模型通用人工智能是人类自我打开的“潘多拉魔盒”,势必将对科技、教育、医疗、文学、艺术等领域产生深刻影响。近几年跨媒介的人工智能发展迅速,ChatGPT 的优异性体现在形式上的问与答以及内容上的“从文本到文本”,生成的文字极具逻辑性和论证力。这对以文本内容生产为使命的出版业,特别是强调原创性的学术出版业造成了极大冲击,引发了学术规范、伦理和道德的争论,各期刊和出版社基于不同立场和态度出台了针对大语言模型工具的规制政策。本文试对此分析,并提出ChatGPT 革命的意义以及学术出版应对策略。

1 大语言模型在出版业中的应用场景

1.1 研究对象或工具性的辅助者

从事学术研究最基础的工作是文献综述。然而查找相关文献、阅读、整理形成观点,研究人员需要花费大量时间和精力。ChatGPT类大语言模型工具有很好的上下文理解和总结能力,故研究人员尝试运用其撰写研究综述。奥梅尔·艾登(Ömer Aydın)等人以“医疗保健中的数字孪生”为题从谷歌学术上检索文献,经ChatGPT 阅读和理解后,研究者向其提问,结果发现ChatGPT 转述的论文内容,与原论文有显著的匹配性,较好地回答了提问。这说明现阶段的人工智能工具能够加速知识的编译和表达[2]。研究者开始将ChatGPT 作为生产力工具来使用,辅助论文写作、检查编程代码、撰写科研项目申请书、引导头脑风暴等。ChatGPT 有被当做数字秘书或数字助理的趋势,哈佛大学的一位学者认为ChatGPT 在非常专业的学术领域尚难完全胜任工作,但他也承认使用其给出某个科研问题的20 种解决办法时,ChatGPT 给出了他从未听说过的统计学术语,进而为论文撰写打开了一个新的文献领域[3]。有研究者使用ChatGPT 探讨其快速生成、重写和评估临床小插图集的能力,发现ChatGPT 在编写基于疾病名称的小插图时能够快速生成不同的上下文和症状概况描述,但过度使用了一些核心疾病症状。因此,这种应用场景的使用过程需要人工监控,结论也要进行适当审查[4]。

1.2 学术研究的共同合作者

ChatGPT 自然流利、逻辑完整的生成内容激发了人们的兴趣,研究者通过不同问题测试模型及其效果,获得了相应的文本。而这些文本成为研究对象或论文内容的有机构成部分,承担了论文合作者的角色,故已有少部分论文将ChatGPT 列为论文作者。根据语义学者(Semantic Scholar)、《自然》杂志的统计数据,已有10 余篇论文把ChatGPT署为合作者,即赋予ChatGPT 人格化的署名权。2022 年6 月哈尔开放科学(HAL open science)上发表了一篇探讨AI 论文生成能力的论文,GPT-3 被列为第一作者,ChatGPT是基于GPT 系列模型微调而诞生的聊天机器人,因此这篇论文可视为第一篇将大语言模型列为作者的学术论文[5]。ChatGPT 自2022 年11 月底上线以来,这类论文迅速增多。2022年12 月,医学预印本资料库medRxiv 上,发表了一篇测试ChatGPT 在美国医学执照考试过关能力的论文,ChatGPT 就被列为作者[6];AI 制药公司香港英科智能创始人亚历克斯·扎沃龙科夫(Alex Zhavoronkov)与ChatGPT合作完成了一篇探讨雷帕霉素抗衰老应用的论文[7]。扎沃龙科夫还表示,他们公司发表了80 多篇使用生成式人工智能工具写作的论文,尽管这些论文没有将人工智能工具署名[8]。2023 年1 月,英国曼彻斯特大学的健康技术研究员西沃恩·奥康纳(Siobhan O’Connora)使用ChatGPT 撰写了一篇社论的前五段,向学生和教师演示如何使用这一工具撰写评估报告或者是学科论文,这篇文章同样采取了合作署名的方式[9]。一些期刊编辑在撰写“编者按”时,也与ChatGPT 共同署名[10]。还有一些文章是访谈式的,人类作者是访谈者,ChatGPT 是被访谈者,人机对话生成文章、共同署名[11]。这种人机对话的文章颇多,其中涉及一些学术和专业领域的话题探讨,《时代周刊》、中国新闻网、《中国教育报》、《中国证券报》等都曾刊登了相关文章。

1.3 内容、语言和风格的润色者

ChatGPT 类大语言模型工具生成的内容有多维和多元的特性。其一,针对同一个问题对象,它的回答内容和方式不尽相同,并非是对网络内容的复制而是有机地整合和表达,所形成的文字可以通过专门的文字工具进行查重。其二,它的语料数据库极其庞大,涉及多国语言,它可以根据问题调用各语言的信息,并用多种语言回答。其三,它可以根据人类的问题生成特定语言风格和类型的文字,如可以快速生成莎士比亚式的表达风格。在此之前,已有一些机构或软件开发了语法与修辞方面的语言修改、润色工具如Grammaly,与这些工具相比,ChatGPT 在智能化、随机化和多样化等方面已经有了质的跃升。这些特性使得ChatGPT 类大语言模型工具可以成为人类很好的写作助手,2022年计算生物学家凯西·格林(Casey Greene)和米尔顿·皮维多里(Milton Pividori)使用GPT-3 润色论文,这一写作助手在几秒钟内就给出了修改建议,每篇文章只用5 分钟便完成修改,可读性大为提高,它还发现了一篇论文中一个方程式的参考文献存在错误,并且成本和费用很低,每篇不到0.5 美元[12]。故《华尔街日报》使用人工智能为读者生成个性化的浪漫喜剧宣传文字内容。2023 年1 月,热点速报(BuzzFeed)宣布使用ChatGPT 来“增强”和“个性化”其平台上的文字内容,其首席执行官约拿·帕瑞蒂(Jonah Peretti)认为此举可以发挥作家、制片人和创作者以及公司业务的创造力[13]。此功能的负面应用随之而来,如研究者可以在ChatGPT 中输入一段已发表的文字并要求其用某学科的学术语言风格改写这段文字,则会生成一段主旨和主题一致、表达语气和风格全然不同的文字,这为学术剽窃打开了方便之门。

1.4 文本内容乃至生态构建者

鉴于ChatGPT 类大语言模型的强大能力,有学者已经尝试由其完成一篇完整的论文。《金融研究快报》上刊登的一篇文章,以“加密货币的金融”为主题,首次提供了ChatGPT 帮助撰写研究报告潜力的结构化测试。他们借助这一工具实现了整篇论文想法生成、文献回顾、数据识别和处理以及实证测试四个过程的内容生成[14]。研究结果表明,通过ChatGPT 可以写出一篇能够被学术期刊接受的金融论文。其实,在此之前运用人工智能手段独立完成一部图书或著作,生产内容并不限于学术领域。1999 年美国旧金山曾发起“全国小说写作月”(NaNoWriMo)的活动,要求参与者在一个月内写出一部5 万字的小说。受此启发,网络艺术家卡泽米在吉特哈伯(GitHub)上创办了“全国小说生产月”,参与者需要将创作图书所使用的全部程序代码以及生产的文本在吉特哈伯社区公开,供其他参与者查阅、评论和开源使用,这已经成为一项参与度颇高的人工智能写作活动[15]。不仅如此,人工智能还可以生成小说,乃至可以生成整套书系,从销售主题书店、图书生产到书评的全流程都可由人工智能模型完成[16]。

2 大语言模型应用的主要风险

2.1 剽窃的隐蔽性与知识产权认定的难度

ChatGPT 类大语言模型在学术出版等领域的应用,带来的首要风险是剽窃。大语言模型的智能之处在于使用完全相同的提示符多次生成响应,每次都会产生不同的结果[17]。也就是说,每个使用者用同一个问题提问,获得的答案和反馈各不相同。这使得剽窃效率大为提升,更加隐蔽和难以发现。甚至使用大语言模型撰写的表面“原创”的文字,比较容易通过剽窃工具的检测。美国西北大学一个研究小组使用ChatGPT 生成医学研究论文摘要,以测试科学家是否能发现它们。他们从《美国医学会杂志》《新英格兰医学杂志》《英国医学杂志》《柳叶刀》和《自然医学》等顶级刊物上精选文章,让ChatGPT 撰写了50 篇医学研究摘要。为了找出哪些摘要是ChatGPT 生成的,一方面,他们使用了剽窃检测器和人工智能输出检测器,另一方面,他们还请一批医学研究人员来人工阅读。经过试验和测试,ChatGPT 生成的摘要顺利通过了剽窃检查,在原创性方面的得分率为100%,即没有发现有抄袭的痕迹;人工智能输出检测器发现了66%的生成摘要;人工审稿人只正确地识别了68%的生成摘要和86%的原始摘要,但错误地将32%的生成摘要识别为真实摘要,14%的真实摘要识别为生成摘要[18]。这说明当下阶段的大语言模型工具已经具备撰写高信度科学摘要的能力,甚至可以假乱真。这就提出了许多非常严峻的问题,怎样鉴定和识别学术出版物中的文章是否由大语言模型工具撰写,以及有多大比例是使用这类工具撰写的;大语言模型工具是否可以成为学术出版物的作者等。进一步说,使用大语言模型工具撰写学术内容可接受的限度以及写作的规范、道德和伦理应当如何,这些问题亟待回答。

随之衍生出来的问题,还有生成内容原创性和知识产权的认定问题。由大语言模型生成的内容和观点是现有知识整合的结果,还是新颖的独创性观点有待进一步分析。另外,基于这些模型所生成的文字、图表的所有权是归生成模型的用户,训练模型的开发人员,还是制作训练示例的内容创建者,这些问题还有待厘清[19]。已发表的人类与ChatGPT 共同署名的文章,这种署名方式是否得到了OpenAI公司的授权,还是人类作者擅自主张的行为,还有待确认。随着这些内容生成式模型被更广泛地采用,这些问题以及更多问题将随着时间的推移需要得到进一步解答。

2.2 知识谬误的传播和学术造假问题

大语言模型生成内容的权威性和真实性无法得到保证,容易导致知识谬误的广泛传播,或者是成为学术造假的源头。国内外的众多测试者意识到,在一些专业领域ChatGPT 类大语言模型会模仿人类方式从事伪造知识的生产,尼格尔·柯蒂斯(Nigel Curtis)等发现用ChatGPT 撰写论文,所有生成的参考文献是无意义的,相关的网络链接是不相关的,是由所谓的人工智能幻觉或“随机鹦鹉学舌”引起的虚假参考文献[20]。笔者曾以“请讲一下达摩眼皮变茶树的故事”提问,ChatGPT 给出了一个它自行虚构的故事,而实际上这个故事出自18 世纪荷兰坎贝尔的《日本史》[21]。如果不具备这类专门知识的受众,将ChatGPT 版本的故事信以为真并发布到网络上,经过多次谬误传播,则会成为错误信息传播的源头。中国传媒大学脑科学与智能媒体研究院院长曹立宏认为如果从事科学研究的学者把ChatGPT 这类“穿了个AI 的深度学习的马甲”的工具当成研究向导,会常常出现“很一本正经地胡说八道”的问题[22]。大语言模型使用的语料还可能存在过时信息或垃圾信息,以及有种族、性别和宣扬偏见和仇恨的内容,进而生成有害信息或者是有特定文化优越性的观点。尽管开发公司已经采取了人工标记等方式来规避这些问题,但使用者可以通过变换提问的方式,逃避过滤规则[23]。基于这些风险,一些知识问答类的平台发布了临时禁用政策,如知名开发者问答论坛栈溢出(Stack Overflow)临时禁止用户在其上发布ChatGPT 生成内容来回答提问,这是因为很多开发者将ChatGPT 生成的看起来科学严谨、实则错误众多的答案搬到平台中,冲击了该网站内容质量管理体系。

2.3 内容生产公平性、知识壁垒等风险

大语言模型工具在提升写作效率、加速内容生产的同时,还会带来学术生产不公平、学术出版壁垒、科学民主化等难题。新加坡国立大学的科学传播研究者担心,大语言模型工具可能会加剧不同资源获取渠道或对尝试新技术持开放态度的实验室之间的不平等:使用人工智能工具写作的机构会有更快的学术生产,尽早产出论文,可以加速获得科学认可和利润风口的知识产权;反之,不使用这类工具的机构和作者则会在学术竞争中处于弱势地位[24]。随着大语言模型的不断进步,它会成为一把双刃剑:一方面,它的推广和使用会提升学术的大众化,知识获取的知识门槛和壁垒会大为降低;另一方面,大语言模型工具的能力强弱与学术生产能力和效率正相关,那些掌握大语言模型的先进工具国家会利用知识的快速累积而掀起一场场学术革命,这会使学术生产出现不平等的状况。当大语言模型走向收费模式,特别是与国家科学和教育安全等议题联系在一起时,更是如此—大语言模型会成为人工智能的新型壁垒。

3 国内外出版界的态度和应对政策

3.1 国外机构的临时性政策调整

基于上述风险和问题,国内外出版机构开始探讨并制定大语言模型工具的使用规则和内容生成政策。率先行动的是《自然》杂志。该杂志对于作者的要求采用了2018 年发表在《美国国家科学院院刊》上的一份研究报告[25]。鉴于大语言模型在学术出版中的快速应用和滥用风险,《自然》在2023 年初更新了作者政策。关于作者权的规定中说,大型语言模型如ChatGPT 目前不满足作者的标准。之所以这样规定,是因为署名权意味着要对研究负责任,而大语言模型模型工具无法承担这种责任。在否定了作者署名权的同时,《自然》又对怎样使用大语言模型工具做出了说明:在论文的方法部分要适当地记载使用情况,如果论文没有方法部分则可在其他合适地方说明[26]。即如果在论文写作时使用了大型语言模型工具,要遵循自我声明和披露原则。在《自然》及其子刊中,这一关于ChatGPT 类大语言模型工具的规定已经在推行和使用,体现在其投稿指南中。

《科学》杂志主编H. 霍尔顿· 索普(H.Holden Thorp)在一篇社论中提到,《科学》及其系列刊物都要与作者签署一份许可协议,证明“作品为原创”,“原创”一词足以表明 ChatGPT 编写的文本是不可接受的,因为利用ChatGPT 编写文本的行为,等同于从ChatGPT 中抄袭。基于这两点,人工智能程序不能成为作者。故《科学》杂志已经着手更新许可和编辑政策,规定ChatGPT(或任何其他AI 工具)生成的文本不能在作品中使用,图表、图像或图形也不能是此类工具的产物。违反这些政策将构成学术不端行为,这与更改图像或抄袭现有作品的性质相同[27]。

另一关于大语言模型的论文政策出自2023 年1 月国际机器学习会议(ICML)发布的2023 论文征稿公告。公告声明禁止包含从大语言模型(如ChatGPT)生成文本的论文,除非这些生成的文本是作为论文实验分析的一部分。国际机器学习会议是一项与人工智能有关的重要国际会议,参会人员众多,这一政策在社交媒体上引起了广泛的争论,会议组织方不得不发表一份更具体的解释和说明,主要包括三个方面的内容:第一,2023年国际机器学习会议的大语言模型政策禁止完全由其生成的文本,但并不禁止作者使用这些工具编辑或润色作者撰写的文本;第二,这一大语言模型政策是基于保守原则制定的,为的是防止使用这些模型所产生的剽窃等潜在问题;第三,这一政策适用于2023 年的会议,随着主办方对大语言模型及其对学术出版影响更好地理解,未来的会议中可能会得到改进[28]。尽管国际机器学习会议做出了详细的说明,但仍有一些悬而未决的问题,如怎样划定使用大语言模型工具编辑和写作之间的界限,以及怎样检查论文是否出自大语言模型工具等。这些问题需要今后在学术出版实践中不断探索和完善。

3.2 中国期刊界发布的相关声明

国内期刊同样意识到此问题的严峻性,也在尝试出台相关内容政策。2023 年2 月《暨南学报(哲学社会科学版)》《天津师范大学学报(基础教育版)》《中南民族大学学报》等期刊发布声明,表示暂不接受任何大语言模型工具(如ChatGPT)单独或联合署名的文章;如在论文创作中使用过相关工具,要在参考文献、致谢或正文等部分详细解释如何使用以及论证作者自身的创作性;如对于引用AI 写作工具的文章作为参考文献的,需提供详细的引用论证[29]。

3.3 国内外政策的态度倾向和共性

国内外学术机构的大语言模型政策体现出了保守性和稳妥性的倾向,基于研究方法上的透明度以及作者完整性和真实性等学术原则,国内各主流期刊现阶段在作者署名权上倾向于禁止,但仍接受使用ChatGPT 类大语言模型工具的研究,只是要对过程、方法、程度等做出说明,以规避剽窃、滥用等方面的风险,确保大语言模型使用的诚信、透明与公正。总体来说,大语言模型已经推倒了人类作者的多米诺骨牌,英国的知名出版商泰勒和弗朗西斯,以及arXiv、medRxiv、bioRxiv等预印本论文平台都已在考虑或着手制定大语言模型应用的相关政策[30]。其中arXiv 在2023 年1 月底,发布了ChatGPT 及类似工具的最新政策,规定在论文中使用从本文到文本生成人工智能工具的论文应该在研究方法中报告;内容生成式人工智能语言工具不应被列为作者,如果使用了这类工具的论文中出现了不恰当的语言,剽窃的内容,错误、不正确的引用或误导性等内容,由人类作者负责[31]。中国出版业也应跟踪最新动态积极研讨,共同应对大语言模型带来的内容生成挑战。

4 大语言模型时代学术生产和出版的前景

ChatGPT 类大语言模型工具是当代人类创造的“弗兰肯斯坦”,这一新时代的普罗米修斯已经点燃了人工智能新的火种。在未来,经过不断迭代和发展,人类将迎来人工智能时代的“摩尔定律”,彻底改变内容生产的方式、速度和效率,颠覆出版业的传统生态,催生新的出版模式和业态。人工智能研究专家亚历克斯·扎沃龙科夫博士表示,出版业可能是生成式人工智能革命的最大赢家[32]。但是对于学术出版业而言,期刊、出版社和编辑将越来越难以区分人类撰写的文本和人工智能生成的文本。我们既应该看到ChatGPT 类大语言模型工具的革命性一面,同时要为其确立法则和准绳,积极面对它所带来的消极影响。最终,在接受与拒绝、存在与善用中,实现大语言模型时代的新平衡。

4.1 借助模型工具实现科研生产力的新飞跃

马克思对生产工具和生产力之间的关系有精辟论述[33],当代科学化、信息化生产工具的快速迭代使人类生产力实现了指数级飞跃。ChatGPT 标志着大语言模型工具走向成熟,展现出多场景的巨大应用前景。在学术出版领域只要合理运用ChatGPT 类大语言模型工具,将会大幅度提高科研工作者的生产力。传统学术研究收集资料多采取卡片式摘抄、编制目录和索引等方式,而数据库和云服务成熟后涌现了多种类型和用途的学术数据库,这彻底改变了文献资料搜集的传统方式、提升了检索效率和质量。同理,ChatGPT类大语言模型广泛使用后,在学术文献阅读和理解方面同样会发生一场革命:借助这些工具可快速检索、定位某个特定领域或研究话题的文献,研究者不必花费大量时间和精力去逐篇阅读,而是可以向其提问或者用其快速总结文献要点,甚至可以形成一篇完整的文献综述文章。在具体写作环节,ChatGPT类大语言模型可以指导写作,如给出文章的结构和逻辑框架;能根据意向投稿期刊的语言风格和类型,提供修改方案和建议;对非母语国家的研究者而言,可以帮助快速纠正语法错误、润色全文、优化表达,撰写出与母语研究者同等语言水平的文章,这无疑消弭了语言的障碍和壁垒。有学者认为,未来的学术内容生产需要更少的人力,这反过来将使学者专注于他们的研究[34]。在大语言模型时代,是否会减少人力的使用有待观察,但可以确定的是可以提升研究者知识获取的速度和效率,减少简单重复的劳动投入,进而实现科研生产力的飞跃和向马克思的“自由王国”进一步迈进。

4.2 倒逼产出原创性内容、加速学术创新进程

学术研究的核心在于创新。学术出版的价值和意义在于通过期刊、出版社等平台,挖掘、评价和传播原创性的学术成果,借此促进人类社会的进步。长期以来,学术成果创新性的评价主要是主观性评价,即通过专家审稿、同行评议等方式进行,且多采取匿名方式。这种评价方式能够体现学术活动的内在逻辑而成为一种固定性的制度安排。但由少数学术精英主宰学术标准和评价,评议活动的本身因素、过程中的制度性因素和非制度的个人因素以及过程以外的其他因素会影响公平[35]。这会带来学术系统的等级和派别等问题,甚至会抑制或阻碍学术创新。另一方面,出版机构将学术评价交由外部专家,形成学术成果发表与否的过滤和裁决机制,这影响了学术平台的定位和风格取向,抑制了编辑主观能动性的发挥等。为了解决这些问题,近年来学术界有两种趋向:一是尝试开放式同行评审,迫使评论者撰写更加深思熟虑和负责任的评论;二是扩大编辑在学术裁判等方面的权限[36]。这些调整带来的直接结果是编辑工作量的大幅增加。在大语言模型时代,编辑借助ChatGPT 等工具可与已有的学术文献快速对比分析,在创新性等维度给出分析和建议,这既减轻了编辑在阅读等方面的工作投入,又在一定程度上避免审稿人在知识和视野上的偏狭。借助人工智能评价工具,学术评价或许不再是一群由身份不明的法官组成的法庭、一个城堡式的卡夫卡的世界。客观上,这会压缩陈词滥调、缺乏新意、简单重复类学术成果的生产,进而倒逼研究者加大在学术创新方面的投入和生产进程。

4.3 以善治理念推动大语言模型赋能学术生产

ChatGPT 类大语言模型工具的成熟和普及,会带来一系列重大变革。有学者提出互联网给人类社会带来了“空间革命”,智能手机开辟了“时间革命”,而大语言模型横空出世则是第三次革命性产品,有望形成“思维革命”[37]。在人工智能时代,ChatGPT 类大语言模型能够模拟人类从事较为复杂的思维活动,工具的不断演化会改变知识生产的传统方式,形成新的内容生成生态,给人类的发展带来深远影响。但ChatGPT 类大语言模型有被错用、滥用的风险,在剽窃、知识谬误、产权纠纷等方面的问题不容忽视,或将有模型霸权、知识公正等诸多不可预知、无法确定的局限性。因此,学术出版平台、政府等本着善治的理念[38],为大语言模型的使用立“良法”,即通过制度性或非制度性的法令、标准和规则促进其使用的透明性和有效性,确保其符合增进人类福祉、促进公平公正、保护隐私安全、确保可控可信、强化责任担当、提升伦理素养等人工智能的基本伦理要求[39]。大语言模型善治的过程就是促使其公共利益最大化的治理过程。唯有如此,大语言模型才能在“思维革命”时代赋能学术和知识的生产,加速推进科学创新和人类进步。

5 结 语

ChatGPT 的出现标志着人工智能文本输出能力实现了质的飞跃,给学术出版业带来了新现象和新问题。一些研究者虽看到了这一写作工具的强大功能,但认为它还没有达到开始撰写学术论文的地步,其创造力受到语料库和人类模型设计者判断力的限制等[40]。但是应意识到,这一工具的底层生成模型已经具备了多模态的跨文本内容生成能力,2023 年底OpenAI 公司将会推出更大的语料库、更进步的算法和更庞大的测试参数,这有望成为更具革命性的语言模型[41]。除了OpenAI 公司外,全球人工智能企业和机构都纷纷投身这场大语言模型的“军备竞赛”,将会有更多、更优秀、更智能的模型不断涌现,形成一批大语言模型的竞品工具和产品。未来,最优质的学术创新者或许不是人类,不是大语言模型工具,而是熟练而深刻地使用大语言模型工具的作者,人机合一完成内容生产将是新常态。知识生产领域的一场百年未有之大变局已经展现出生动的发展图景,这给学术出版业带来了空前挑战和契机。因此,学术出版业需要应对大语言模型广泛应用带来的法律、道德和伦理等方面的问题,制定使用规则并在实践中不断调适和修正,以适应发展变化的形势,推动内容生产效率和学术原创能力的不断跃升。

猜你喜欢

工具学术论文
波比的工具
波比的工具
如何理解“Curator”:一个由翻译引发的学术思考
对学术造假重拳出击
“巧用”工具
下期论文摘要预登
下期论文摘要预登
下期论文摘要预登
2013年5—12月最佳论文
学术