APP下载

ChatGPT 对学术期刊的影响及应对策略研究 *

2024-01-04张璐郭晓亮景勇孙俊

出版与印刷 2023年4期
关键词:不端数据安全学术期刊

张璐 郭晓亮 景勇 孙俊

生成式人工智能ChatGPT(Chat Genera tive Pre-trained Transformer)自发布以来,迅速风靡全球,广泛应用于金融、教育、传媒等领域。壹点智库研究员运用壹点智库“传播力测评工具”对ChatGPT 进行传播力测评发现,仅2022 年11 月至2023 年2 月,关于ChatGPT 的信息传播总量就达到2 829 057 条,其网络传播影响力指数的月度平均传播广度值达到5.24,根据信息传播广度等级的划分标准,可将ChatGPT 的信息传播广度认定为最高级—爆发级。[1]ChatGPT 使用大规模的预训练模型和海量的语料库来学习自然语言的语法、语义和上下文,具有强大的语言处理能力和逻辑能力,在全球产生了广泛影响。ChatGPT 强大的搜索能力和逻辑推理能力,使其具备了学术文本生成能力,给学术期刊的发展带来挑战。学术期刊是学术活动和学术研究成果的展示平台,ChatGPT 的出现,增加了对学术不端行为的甄别难度,降低了学术生产的门槛,有可能引发更多隐私安全问题。因此,学术期刊一方面要积极拥抱新技术,探索ChatGPT 在学术生产中的可能应用;另一方面也应充分考虑ChatGPT 在学术期刊领域可能引发的负面影响,有效控制其无序发展,避免其对学术生态造成威胁和破坏,进而影响学术期刊的良性发展。

一、ChatGPT 的出现与应用

ChatGPT 是由美国人工智能研究实验室OpenAI 研发的聊天机器人程序。作为一款由人工智能技术驱动的自然语言处理工具,ChatGPT 被认为是人类科技的又一个“技术奇点”,其使用处理序列数据的Transformer 神经网络架构,能够通过学习和理解人类的语言,连接大量来自真实世界中形成的语料库,使用英语或其他语言就用户感兴趣的话题展开深度交流。[2]不仅如此,ChatGPT 还能够撰写邮件、视频脚本、文案、代码,为用户提供翻译、绘图、撰写论文和诗句等服务,可谓是一个“全能者”。截至2023 年1 月,ChatGPT 的月用户数已突破1 亿人次,成为历史上增长最迅速的消费者应用程序。据调查,美国有89%的大学生曾利用ChatGPT 完成作业。[3]以色列总统赫尔佐格(Isaac Herzog)更是利用ChatGPT 撰写演讲稿件,成为全球首位公开使用ChatGPT 的国家领导人。[4]

ChatGPT 在短时间内能够在全球掀起风暴是因为其广泛的应用领域。[5—6]作为一种机器学习系统,ChatGPT 可以在大量文本数据集上进行训练后,完成复杂且智能的写作。例如,在医疗领域,应用ChatGPT 生成简洁的出院小结和检查报告,可节省人力成本,为医护人员腾出宝贵的时间;[7]在工程管理领域,应用ChatGPT 可为简单的建筑项目生成施工进度表;在学术研究领域,ChatGPT 可用于学术论文摘要的撰写和文献的搜集工作。[8]

二、ChatGPT 对学术期刊的主要影响

1.增加学术不端行为的甄别难度

ChatGPT 可以基于大量的互联网文本数据进行训练,根据用户给定的上下文或者提示生成类似于人类撰写的文本,内容可涵盖各种主题,并支持多种不同的语言和风格。使用ChatGPT 进行AI 对话时,用户可以简单地描述想要其完成的任务,让ChatGPT 按照所提供的主题写作。例如,用户可以发出指令“写一篇关于ChatGPT 的文章”;也可以进一步要求其按照提供的框架进行写作,例如“介绍ChatGPT 的由来,围绕其使用的技术和算法、应用领域、未来前景等写一篇文章”;还可以接着提出补充要求,如“将文章增加至1000 字”;等等。通过这些操作,用户可以对ChatGPT 进行精准且有效的引导。[9]操作的便利、性能的卓越以及极低的应用成本使ChatGPT 被大量应用于学术写作。但如果不加限制地将ChatGPT 滥用于学术写作,就会造成抄袭泛滥,导致学术不端行为的发生。

由于ChatGPT 具有强大的文本生成能力和逻辑推理能力,可以生成高质量、逻辑严密的文本,因此辨别由ChatGPT 生成的文本内容难度较高。有研究者曾经做过一个实验,将作者原创的摘要和ChatGPT 根据论文内容生成的摘要交予专业审稿人审读并进行辨识,结果32%的由ChatGPT 生成的摘要被审稿人识别为原创的论文摘要,14%的原创论文摘要被审稿人识别为ChatGPT 生成的摘要。[10]这意味着,仅仅依靠审稿人已较难识别论文的哪些内容是由作者原创,哪些内容是由ChatGPT 生成的。由此可以预见,未来随着ChatGPT 的发展和更迭换代,在学术审稿环节中,识别论文文本是否由ChatGPT 生成将变得更为困难。这将大大增加学术期刊甄别学术不端行为的难度,从长远来看将影响学术期刊的高质量发展。

2.弱化学术责任,扰乱学术生态环境

ChatGPT 借助海量数据,应用语言训练模型,可以接受和输出多种语言文本,表面上降低了知识生成和共享的门槛,但由于ChatGPT 尚未发展完善,被应用于论文写作时,往往会给出一个看似合理但却经不起推敲甚至荒谬的答案,有时还会杜撰一些事件或未经证实的研究成果。实际上ChatGPT 生成的文本中常常存在错误和有违学术伦理的内容,如果作者在学术研究中不当使用ChatGPT,学术期刊审稿人又未能及时识别,就可能导致这些错误内容的传播,扰乱学术生态环境。

此外,ChatGPT “参与”写作,还可能带来学术责任分散的风险,[11]如果ChatGPT 生成的文本出现问题,有可能导致问责无法落实到具体的个人。更重要的是,在论文写作过程中过多使用ChatGPT,会导致作者对ChatGPT 形成依赖,削弱作者的创造能力。长此以往,可能产生大量由ChatGPT 拼凑而成的“学术垃圾”,看似“形式规范、论述严谨”,却经不起推敲,更谈不上学术创新,严重影响整个学术生态的良性发展。

3.增加学术共同体的不信任感,引发隐私安全问题

随着语料库的不断扩容,ChatGPT 的深度学习特质和高度仿真性,使其在人机互动时越来越接近人类思维,表现出更高智能。未来,不仅作者应用ChatGPT 来撰写论文,同行评审人也可能借助ChatGPT 审阅稿件、提供审稿意见。由于ChatGPT 生成文本的准确性和可靠性尚不能保证,如果在学术研究中广泛使用ChatGPT,可能增加作者、评审人、编辑、读者等学术共同体成员之间的不信任感。

ChatGPT 拥有强大的逻辑推理能力和“万能计算能力”。当用户首次使用该程序时,需要对个人信息进行登记,以便在系统中建立个人账户,为系统的大数据算法和智能推理等核心功能提供必要的信息。这一操作就可能引发隐私安全问题。若该研究者之后使用ChatGPT 辅助学术创作时,又在系统中提供研究的创作思路、核心观点、创新点等,不仅会引发隐私安全问题,还有可能造成涉密信息和数据泄露的风险。

三、学术期刊应对ChatGPT 的策略建议

1.探索人机协同工作模式,强化对学术不端行为的问责机制

当前,人工智能技术正从“弱人工智能”模式向“强人工智能”模式转变,以ChatGPT为代表的人工智能可以辅助科研工作者进行文献搜集,快速找到与投稿方向相适应的学术期刊,加快学术科研成果的生成和传播。但是,ChatGPT 不能完全代替人类完成论文撰写工作,在学术写作中使用ChatGPT 必须以人为中心,人工智能为辅助。

对学术期刊来说,在学术出版的各个阶段都可以考虑如何有效利用ChatGPT。例如:在选题策划阶段,可以尝试使用ChatGPT 广泛收集信息,形成备选方案,供编辑部讨论和论证,形成最终决策;在同行评审阶段,ChatGPT 可以对论文进行分类标引,推荐审稿专家,收集相同主题的论文,辅助审稿专家审阅稿件;在编辑出版阶段,ChatGPT 可以替代人工完成大量重复、繁琐的编校工作,如核对参考文献、规范格式、修改错别字、统一表述等,期刊编辑可节省出时间加强期刊内容建设。利用ChatGPT 的技术赋能,可以实现对学术期刊出版全流程管控与监测,以提高学术期刊的办刊灵活性,打造人机协同工作模式。[12—13]

ChatGPT 广泛应用于学术期刊出版,在提高研究者和编辑工作效率的同时,也不可避免带来抄袭、剽窃等学术不端问题,影响学术环境的公平性。因此,为防止ChatGPT 对学术生态造成负面影响,学术期刊应加强对学术不端行为的审查,一旦发现学术不端行为,即可通报给作者所在单位进行内部调查,并在专门的学术不端治理机构(如教育行政部门、高校学术委员会等)备案,请求其跟踪、调查,从根本上杜绝学术研究中的不正之风。

2.制定出版政策,规范人工智能工具的使用

技术在发展,相关政策也应随之调整。毋庸置疑,今后将有越来越多的学者使用ChatGPT 生成文本、撰写摘要、生成图表或图片,学术期刊及其主管部门尽快制定关于人工智能辅助学术生产的新政策成为学术界的当务之急。国外著名期刊Science(《科学》)、Nature(《自然》)、Cell(《细胞》)、The Lancet(《柳叶刀》)等最近纷纷更新了出版政策,特别说明了关于人工智能的应用规范。Science发表了一篇标题为ChatGPT is fun,but not an author(《ChatGPT 很有趣,但它不是作者》) 的文章,认为如果没有得到明确许可,任何论文都不得使用ChatGPT 生成的文本,更不能将ChatGPT列为文章作者。[14]Nature于2023 年1 月24日发布了类似禁令,即不接受将人工智能模型列为论文作者,不同的是,论文本身可使用人工智能工具产生文本,但应在研究方法或致谢中标示清楚。Cell和The Lancet也允许使用人工智能工具,但不能取代文章作者完成关键性任务,作者还必须在论文中声明是否以及如何使用了人工智能工具。同时,针对ChatGPT 生成的文本难以辨识这一问题,施普林格·自然(Springer Nature)正在积极研发侦测AI 产生文本的工具,以期能对其准确分辨。[15]关于ChatGPT 的使用限制也扩展至高校,例如,香港大学禁止学生在课堂、作业和考试中使用ChatGPT 等人工智能工具,违规使用将被视为剽窃,如教师怀疑学生使用ChatGPT 等人工智能工具,可要求其进行额外加试。[16]

就当前来看,ChatGPT 生成内容的最大问题在于其无法代替人类的责任以及知识产权归属问题,也就是说人工智能无法对论文内容的完整性和道德伦理性负责。但人工智能的发展势不可挡,笔者认为,不必完全禁止ChatGPT 的使用,要利用其相关优点,推动科技进步和文化传播。目前,ChatGPT 正迅猛介入学术研究领域,但相关政策制定却相对滞后,监督机制尚未建立,难以有效应对ChatGPT 赋能学术生产可能导致的新型道德伦理问题。除法律法规、管理规范等硬约束手段不健全,关于ChatGPT 使用的道德准则和伦理原则等软约束条件也同样欠缺,使在学术研究领域使用人工智能工具的行为尚处于自由生发状态。要解决这些问题意味着学术期刊界需要制定共同的行业道德标准、树立一致的价值理念、建立ChatGPT 等人工智能使用的伦理和准则,提出一套相对完善、可操作、兼顾工具理性和价值理性的实操框架,以防止技术的滥用。

3.加强用户隐私保护,保障数据安全

习近平总书记指出“没有网络安全就没有国家安全”[17],这无疑强调了网络安全的重要性。作为网络安全的重要组成部分,数据安全受到广大科研工作者的关注,保障数据安全是一项极其复杂的系统工程。在数据隐私和数据安全方面,由于ChatGPT 可能在未征得用户授权的情况下收集、处理数据或超范围使用数据,这将带来个人信息和隐私泄露的风险。这一问题已引起各行各业的担忧。同样,ChatGPT 的使用也给学术期刊的用户隐私保护和数据安全等带来了诸多隐患。

然而,隐私保护不是一个单一的问题,必须通过国家、行业以及个人等多层面的努力,加强对用户隐私的保护。首先,在国家层面,应该通过立法保护用户的隐私和数据安全。目前,与人工智能使用相关的法律法规不够健全,迫切需要进行修订与完善。只有通过国家立法从根本上保护用户的隐私和数据安全,才能有法可依地打击ChatGPT 等人工智能工具对用户个人隐私和个人信息的侵犯。[18]这也是保护学术期刊用户个人隐私和数据安全的重要措施。其次,在行业层面,学术期刊应遵守行业底线,担负起保护用户数据和隐私的社会责任。学术期刊的投审稿系统在登记用户信息时,应秉持“最小收集”原则,充分尊重用户个人隐私,并最大程度地防止用户个人隐私的滥用和泄露。最后,在个人层面,用户需要主动提高隐私保护意识。以ChatGPT 的安装为例,用户要想使用该程序模型,需要填写必要的个人相关信息,如联系人、电话、邮箱等,同时需要注明使用ChatGPT 的原因及用途。这意味着从此时起,使用者的个人隐私已存在被泄露的风险。为防止ChatGPT 等人工智能工具对信息数据的窃取,用户个人需要建立起隐私保护的第一道屏障,主动提高隐私保护意识,在使用结束后可主动删除历史数据。此外,用户进行数据匿名也不失为强化数据安全和隐私保护的一种方法。

四、结语

ChatGPT 等人工智能工具的广泛应用,给学术期刊带来了许多潜在风险,但挑战与机遇并存,不能因为存在风险就一概否定。ChatGPT 如被不加限制地使用,可能对学术研究和学术期刊造成威胁和破坏,影响学术期刊的高质量发展;但如果善加引导,则将助力学术期刊的良性发展。为规避新兴技术使用可能带来的风险,使其发挥积极作用,应从多方面入手,例如通过探索新模式、制定新政策、开发新技术等,使ChatGPT 等人工智能工具得到正确使用,为学术期刊高质量发展保驾护航。

猜你喜欢

不端数据安全学术期刊
规范科学技术活动 抵制学术不端行为
学术期刊引证指标
学术期刊引证指标
论文作者学术不端行为类型
云计算中基于用户隐私的数据安全保护方法
建立激励相容机制保护数据安全
河海大学学术期刊创办百年
大数据云计算环境下的数据安全
大数据安全搜索与共享
《肝胆胰外科杂志》来稿中常见的学术不端问题