APP下载

在线内容分享平台过滤义务研究

2021-03-25媛,刘

重庆开放大学学报 2021年5期
关键词:义务措施内容

刘 媛,刘 婷

(重庆大学 法学院,重庆 400044)

2020年中国网络版权产业市场规模首次突破一万亿元,达到11847.3亿元,同比增长23.6%,“十三五”期间年复合增长率近25%,①腾讯研究院《.中国网络版权产业发展报告(2020)》,https://baijiahao.baidu.com/s?id=1702290326734384715&wfr=spi⁃der&for=pc,最后访问时间为2021年7月6日。以在线内容分享平台为代表的网络产业持续发展。②《2021中国网络视听发展研究报告》显示,“2020年短视频的市场规模达2051.3亿,同比增长57.5%。用户使用率为88.3%,用户规模达8.73亿。”https://baijiahao.baidu.com/s?id=1701552323041970284&wfr=spider&for=pc,最后访问时间为2021年7月7日。平台通过提供便捷的网络服务,已成为公众日常获取更广泛文化和创意作品的重要渠道,构建平台内健康的网络版权环境,是满足公众文化需求、促进网络版权市场发展的重要内容。近年来,版权侵权行为在网络环境下已呈现出新型化、复杂化、高技术化等特点[1],打击盗版的难度大大增加,平台内版权侵权乱象频发,③《2020中国网络短视频版权监测报告》发布:12426版权监测中心数据显示,2020年累计监测到3009.52万条疑似侵权短视频。http://www.iprchn.com/Index_NewsContent.aspx?Newsld=126181,最后访问时间为2021年7月7日。亟须有效的规制措施。过滤技术在对用户侵权行为的源头追溯、实时监测和在线识别中展现出不容忽视的效用,是预防网络版权侵权的强有力手段。要求在线内容分享平台承担过滤义务,发挥平台在运用技术手段处理版权侵权中的强大优势,或将成为治理平台侵权问题,完善网络版权保护体系的重要途径,值得深入研究。

一、过滤义务产生背景

(一)“避风港规则”失灵

“避风港规则”诞生初期,极大地促进了网络产业的飞速发展。在此规则下,在线内容分享平台在版权侵权中处于中立地位,由版权人与用户直接解决版权纠纷,在线内容分享平台只需依据通知或反通知,对涉及内容进行删除或恢复,无需对侵权行为进行实质性审查。这一规则的设置很大程度上调和了版权人与在线内容分享平台间的利益冲突,降低了平台承担版权侵权责任的风险,给新兴的网络产业提供了一个相对稳定的法律预期。时过境迁,随着平台规模的不断扩大,在线内容传播呈现出聚合性、高速性及跨界性的特点[2],现有“避风港规则”在应对网络版权侵权爆发式增长的问题上,就显得左支右绌。

第一,版权人维权成本增加。“避风港规则”要求版权人负责主动发现侵权内容,提供具体的侵权信息。而在线内容分享平台中每天可能出现的侵权文件成千上万,如果强制版权人必须逐一查明可能涉及侵权的信息,远远超过了普通版权人所能承受的能力范围[3]。许多版权人因此不得不选择利用第三方监控系统来监测侵权情况,间接增加了版权人的维权成本。

第二,海量删除通知也增加了在线内容分享平台的负担。即便在“避风港规则”下,在线内容分享平台只需对通知内容进行形式审查,但许多大规模平台每天收到侵权删除通知数量也已经相当庞大。根据谷歌2019年《透明度报告》披露的数据,谷歌至今收到的以版权问题为由的删除通知已接近43亿条,其中有版权人发出的通知,也有侵权举报组织发来的通知,这远远超出了平台的人工处理能力[4]。平台不仅面临着处理海量通知的工作压力,还承担着通知处理不及时可能引发的侵权责任风险。

第三,重复侵权行为屡禁不止。侵权内容可轻易复制,通过多种途径上传。即便版权人已依据“避风港规则”发出通知,平台已对侵权内容进行删除,仍无法阻止其他用户或者同一用户利用其他平台进行复制传播,版权侵权行为并未从根本消除。这种分散且反复的侵权行为,使版权人累于无休止地反复通知,在线内容平台再无休止地反复处理[5],打击盗版的效果将被大打折扣。

在“避风港规则”下,在线内容分享平台没有事前主动审查侵权内容的义务,主要依靠版权人通知后采取删除等限制措施。在网络产业发展初期,这一做法尚能够及时将损害控制在合理范围内。但随着信息传播速度的大幅提升,侵权规模迅速壮大,内容只要流入平台,就难以被及时发现并得到遏制。我们需要建立起有效的事前预防机制,才能更好地维护版权人的利益,促进网络版权市场的健康发展。

(二)强化平台承担的注意义务

为扭转“避风港规则”下版权人维权困难的现状,司法实践呈现出逐渐强化在线内容分享平台作为第三方的注意义务的趋势[6]。法院开始在一些情形下对平台提出较高的注意义务,要求平台在一定范围内主动采取措施预防版权侵权的发生[7]。

常见情形有:依据涉案作品的知名度,要求平台主动进行审查。在中*文公司诉百*文库著作权侵权纠纷案中,①北京市第一中级人民法院(2014)一中民初字第1402号民事判决书;北京市高级人民法院(2016)京民终247号民事判决书。法院依据涉案作品在百*平台超万次的下载量,涉案作品在百*其他产品中已发生相同诉讼,要求百*应主动对其平台内相关内容是否为原创或具有合法授权进行核实,并采取有效措施防止侵权行为发生或持续。在韩*诉百*著作权纠纷案中,②北京市海淀区人民法院(2012)海民初字第5558号民事判决书。法院同样以涉诉作品的知名度和影响力作出类似要求。

当平台从用户版权侵权行为中直接获益,但未采取了合理、必要的技术防范措施时,应认定其未尽到较高的注意义务。在北京传*时代影视文化公司诉山东机*网络公司侵害作品信息网络传播权案中,①山东省临沂市中级人民法院(2014)临民三初字第250号民事判决书。一审法院认为,机*公司通过提供未经原告授权的作品下载服务收取了费用,从中获取了直接的经济利益,对于版权侵权行为发生存在主观过错,应当承担侵权责任。

平台在主动对节目进行分类、推荐时,也需承担较高的注意义务。在深圳腾*公司、广州优*网络公司诉运城市阳*文化传媒有限公司侵害作品信息网络传播权及不正当竞争纠纷十六案中,②广州互联网法院(2019)粤0192民初1092-1102、1121-1125号民事判决书。一审法院认为,阳*文化传媒有限公司在其西瓜视频平台游戏专栏中主动下设“王*荣耀”专区,主动选择、推荐“王*荣耀”游戏短视频,但未有效防止侵权行为的发生,认定其应知用户上传的游戏视频是否侵权。

随着司法实践中对平台注意义务的要求日趋复杂化,有学者提出应将技术水平纳入对平台注意义务标准的衡量[8],还有学者将平台注意义务判定方法抽象为综合服务类型、行为类型、技术水平等多因素判定法[9]。随着网络技术及应用的发展,强化平台第三方义务的趋势日益清晰起来。而更高的注意义务要求往往与侵权责任承担相对应[10],即便平台运用“避风港规则”提出抗辩,也未必能获得支持。因此,采取过滤措施成为平台履行第三方义务的应有之义。

(三)过滤技术的支持

网络版权领域的过滤技术已日臻成熟,内容识别的准确性和精确度在技术更新中已获得极大提升。

早期的过滤技术是“内容元数据索引”,它根据实际内容附随的“元数据”③元数据是指内容用附加数据注释而不是简单地由内容本身描述的事实。以YouTube为例,元数据包括诸如内容作者(或所有者)、标题、文本描述、一组基于文本的关键字、视频上传时间、持续时间等信息。而元数据的获取可直接通过编程方式(例如,使用自动化脚本),而无需检查文件内容本身。搜索来过滤文件。元数据搜索具有简单高效的特点,它无须实际下载文件本身,能够直接对大量文件进行快速分析,并且可以跨媒体使用。但是,元数据与目标内容无法一一对应,对文件的简单修改会导致元数据的改变,影响元数据检索的准确性和稳定性。

随后发展的“哈希算法识别技术”,弥补了元数据与文本无法准确对应的缺陷。哈希算法识别技术,对不同文件生成独一无二的哈希值,再与已建立的哈希函数数据库文件相比对,自动过滤掉具有相同哈希值的文件[11]。但是,这一技术仍未解决对文件内容以任何方式修改后,对应哈希值随即改变的问题。侵权内容可能仅凭借对原始内容稍加改动即可逃脱自动检测,影响过滤结果的准确率。

目前发展更成熟的“指纹识别技术”就有效解决了这一问题,指纹识别技术根据文件内容的特征生成特定指纹进行识别。以音频文件为例,歌曲中每个音符都可以用特定频率值表示,音量则由对应频率的某个幅度表示,特定指纹可能包含一段时间内不同频率值及其对应幅度等信息,对于音频本身特征具有更强大的表示意义。④Evan Engstrom&Nick Feamster,The Limits of Filtering,https://www.engine.is/the-limits-of-filtering,p.11,最后访问时间:2021-06-21。简单的数据修改难以改变指纹对特定内容的表示,克服了前两种技术难以识别修改后文件的局限,是目前主流的过滤技术。YouTube研发的Content ID、⑤How Content ID Works,https://support.google.com/youtube/answer/2797370?hl=en.2019-04-21,最后访问时间:2021-07-10。百度文库构建DNA反盗版文档识别系统、⑥《百度文库独创“反盗版DNA系统”,每日拦截侵权文档25万篇》,载于中国财经新闻网,http://vr.sina.com.cn/news/hz/2020-02-27/doc-iimxxstf4703168.shtml,最后访问时间:2021-6-20。网易云所开发的网易易盾等都采用了这一技术。根据网易易盾的2020年检测报告,网易易盾检测数据为4116亿次,识别有害信息425亿次,从中提取的有害信息特征超十亿次,反作弊累计检测量百亿次,反作弊恶意行为识别准确率在99%以上。①《数字内容风控先行者,网易易盾构建清朗网络空间》,载于亿欧网,https://baijiahao.baidu.com/s?id=1702594512580950 106&wfr=spider&for=pc,最后访问时间:2021-6-20。过滤技术已经达到较高的准确程度,在具体的应用中取得了良好的效果。

在线内容分享平台控制着所有数据的传播,更容易追踪侵权行为,从源头抑制侵权损害的产生。由平台采取过滤措施,大幅度降低了版权人为应对版权侵权的维权成本,节省了平台逐一人工审查、处理侵权通知、采取必要措施的成本,抑制了侵权行为的反复发生。有效地打破了“避风港规则”下,版权人与平台应对版权侵权的僵局。在司法实践逐渐提高平台履行第三方义务标准的大趋势下,面对沉重的网络盗版压力,通过法律要求在线内容分享平台采取过滤措施,是预防版权侵权更为合理的选择。

二、欧盟《版权指令》中的过滤义务

欧盟率先尝试从法律层面对在线内容分享平台规定过滤义务,改革现有网络版权间接侵权规则。2016年,欧盟将过滤义务纳入《数字化单一市场版权指令》(以下简称《版权指令》)的立法进程。该指令制定的目标之一,就是缩小价值差,加强版权人对在线内容分享平台授权其使用内容时进行谈判并获得报酬的地位。②Questions&Answers:EU Negotiators Reach a Breakthrough to Modernise Copyright Rules,https://ec.europa.eu/commission/presscorner/detail/en/MEMO_19_1151,最后访问时间:2021-07-10。用户未经授权上传大量作品至平台,平台再通过提供这些作品的存储和访问服务,从中获取了大量利益,版权人却未获得或仅获得少量报酬,两者之间形成的价值差使版权人获取报酬面临困境,无疑会给欧盟的文化创新和就业带来困难。欧盟委员会因此提出对平台施加过滤义务的改革方案。

(一)将过滤义务纳入侵权责任豁免条件

过滤义务一经提出就受到较大争议,在整个立法过程中相关内容几经修改,最后于2019年正式公布的《版权指令》③DIRECTIVE(EU)2019/790 of the EUROPEAN PARLIAMENT and of the COUNCIL of 17 April 2019 on Copyright and Relat⁃ed Rights in the Digital Single Market and Amending Directives 96/9/EC and 2001/29/EC,https://eur-lex.europa.eu/legal-con⁃tent/EN/TXT/?uri=CELEX%3A32019L0790&qid=1624424969449,最后访问时间:2021-06-23。虽未明文规定过滤义务,但产生了要求在线内容分享平台承担“过滤义务”的实际效果[12]。

《版权指令》将平台允许公众访问其他用户上传内容的行为,认定为向公众传播。用户上传未经授权作品至平台,平台允许公众访问应承担侵权责任。根据《版权指令》第17条第4款规定,平台想要获得侵权责任豁免,需符合以下三个条件之一:其一,平台已尽最大努力获得授权;其二,平台能够证明,对版权人事先提供了相关必要信息或发出充分实质性通知的作品,已根据较高的专业注意义务,尽到最大努力确保该作品不被他人获得;其三,平台对版权人发出侵权通知加以及时处理后,尽最大努力防止版权人的作品将来被再次上传。后两个条件均要求平台采取有效措施防止侵权作品上传,指令虽未对平台对此采取何种方式进行具体限制,但在没有其他创新性解决方案提出之前,在线内容分享平台想要在侵权责任中获得免责,采用过滤措施将成为其不二选择。

(二)区分过滤义务的适用对象

《版权指令》涉及的“过滤义务”并非针对所有网络服务提供者的普遍义务,指令中明确限定适用对象为在线内容分享平台,即主要目的或主要目的之一是储存、提供对用户上传的作品的访问服务,且为营利目的组织和推广上述内容的信息社会服务提供者。这一选择主要还是基于在线内容分享平台是版权侵权的高发地,也是导致价值差的重要群体。对在线内容分享平台施加过滤义务最能达到立法目标。但是,采用过滤措施对大型在线内容分享提供商而言是最优选择,对于新兴网络创业者、刚起步的一些中小型在线内容分享平台而言,过滤成本可能会额外增加其经济负担,影响初期发展。因此,《版权指令》对在线内容分享平台进行区分适用,对运营年限在3年以内且年营业额低于1000万欧元的在线内容分享平台进行义务豁免。

(三)对我国构建过滤义务的启示

将过滤措施纳入在线内容分享平台的义务,保证过滤措施的广泛实施,可以最大限度地达到对平台版权侵权整体治理的效果。相较于欧盟在制度构建中面临层层阻碍,需要不断与成员国进行较量,甚至妥协,需要寻求上位法和成员国国内法的磨合,中国具备更有利的制度实施环境[13]。中国有更为统一的市场、统一的法律制度、强大的网络平台和自主研发的过滤技术,为制度的有效落地提供了保障。

经过对欧盟《版权指令》过滤义务的考察,可以为我国构建过滤义务提供以下启示:第一,过滤义务的内容在规定中必须具体明确。欧盟的《版权指令》对于过滤义务的条款表述存在过于模糊的问题,条文频繁采用“尽最大努力”这类模棱两可的用词,将给法院在司法实践中的认定造成困难[14]。《版权指令》只明确了平台不实施过滤义务会导致无法获得责任豁免的效果,对于平台实施过滤义务的方式、过滤标准的设定、错误过滤救济等具体内容缺乏明文规定。平台实施过滤义务处于无人监管的危险状态,资本的逐利性很可能导致平台对过滤措施的滥用。第二,过滤义务可以对部分主体进行豁免。《版权指令》明确规定了符合一定条件的中小企业不适用过滤义务,这一举措在整体强化在线内容分享平台义务承担的前提下,兼顾了网络市场的发展规律,避免过滤义务对互联网创新创业和进一步发展可能产生的负面影响,在我国构建具体过滤义务适用对象时可以适当参考。

三、过滤措施与用户利益的平衡

过滤措施作为一项技术规制手段,不可避免地会对用户行为产生影响。过滤义务的提出在国内外都面临着许多争议,反对意见主要认为这一措施与用户利益相冲突:其一,过滤措施将导致平台对用户行为的监控,可能会侵犯用户的隐私权;其二,平台在公众上传和传播作品时设定审核关卡,可能会对公众自由表达带来限制[13][15][16]。对此,有必要审查实施过滤措施能否与用户利益相协调,以探究设置过滤义务是否是更为合理有效的制度选择。

(一)过滤措施与用户隐私利益的平衡

判断过滤措施能否与用户隐私利益实现平衡可以从两个方面进行考察:一是明确过滤措施的实施可能接触到的用户隐私范围,衡量二者可能发生冲突的程度;二是衡量过滤措施对隐私利益的限制是否具有一定的正当性。

过滤措施在实施过程中并不会系统性地提高对隐私利益侵犯的风险,被纳入审查范围的用户信息一般不符合隐私的认定标准。对于隐私的认定,美国法院确立的合理隐私期待标准被各国广泛采纳,是比较可行的认定方法。这一方法认为,能够被法律认可为隐私保护的信息需要同时符合两个条件:主观上,个人展现出将某些信息作为秘密、不愿公开的真实隐私期待;客观上,该期待是正当的,能够合法化的[17]。过滤措施是用户发布作品的前置程序,过滤范围主要是用户试图通过平台进行公开传播的信息,如果用户对其上传的作品进行私密设置仅供自身访问,并不会触发过滤措施。用户上传内容至平台并公开发布时,主观上应当知道内容包含的信息会向不特定主体公开,推定其不具有对该作品产生真实隐私期待的可能性;客观上,将用户公开传播的信息认定为个人隐私也不符合大众的一般认知,不具备正当性。纳入审查范围的用户信息并不具备认定为隐私的主客观要件。

适度限制隐私利益以更好地实现版权保护符合公共政策的考量。过滤义务的主要目的是保护网络版权,在我国公共政策层面上,版权保护的重要性不容忽视。若更有效地保护版权所产生的社会收益,足以补偿适度限制隐私所带来的社会成本,那么对平台施加过滤义务就会成为决策者利益衡量后的较优选择[11]。用户在享受平台带来的便捷服务时,对于适当的限制措施具有一定的容忍度,通过公开透明的规则对平台实施过滤措施进行规制,充分保障用户的知情权,能够在很大程度上消除用户对其隐私保护的担忧。

(二)过滤措施与用户言论自由的平衡

衡量过滤措施能否与用户言论自由实现平衡,可以根据被限制言论的类型,分为对侵权言论的限制和对合法言论的限制两类进行讨论。

过滤措施对侵权言论的限制具备正当性。过滤措施主要限制了侵权言论的传播,由此是否对用户的言论利益造成损害,需要先明确侵权言论是否属于言论保护的范畴。言论自由,是指能够将所见所闻所思以某种方式或形式表现于外的自由[18]。在我国,这并不是一种绝对的、不受任何约束的自由。宪法明确对公民行使言论自由作出了限制,公民在行使自由和权利的时候,不得损害国家的、社会的、集体的利益和其他公民的合法的自由和权利。因此,侵犯他人版权的言论不属于言论保护的范畴。

过滤措施对于言论自由的限制能够被控制在合理范围内。为实现版权人垄断利益与公众言论自由的平衡,版权法也充分给予了公众行使言论自由的空间,即便该言论的行使可能侵犯他人的版权。最典型的就是合理使用,囊括了各种情形下对言论自由的保护。例如,对具有个性表达价值的言论,版权法规定在为“个人学习、研究、欣赏”,“介绍评论某一作品或说明某一问题”的情形下,可未经授权使用他人已经发表的作品。当言论具有重要政治价值时,也可能因为属于“公众集会讲话”构成合理使用而排除侵权责任。

由于过滤措施不可避免的错误率,必然导致机器对合法言论的“误伤”,尤其是对合理使用的认定[19]。只有将“误伤”范围控制在合理限度内,才能实现过滤措施与用户言论自由的利益平衡。可从以下几个方面进行考察:第一,过滤措施的错误率是否控制在合理范围内。因为错误率越低,对合法言论保护的威胁就越小,当过滤措施对合法言论的损害达不到实质程度时,这一措施将不会因侵犯言论自由而失去合理性。本文在第一部分中提到以指纹识别为主的过滤技术,可将错误率控制在很小的范围内,降低对合法言论限制的风险。第二,被限制的言论是否存在低成本的替代方案。侵权言论并不具备表达上的不可替代性,用户完全可以选择重新或换种方式表述,由此付出的劳动成本非常低,同时还能从另一程度上激发创作积极性[20]。第三,是否具有充分的救济措施。有效的救济措施能够最大限度挽回对言论自由造成的损害。这实际属于规则制定层面的问题,能够通过在构建错误过滤救济机制时,充分考虑用户言论利益,畅通用户申诉渠道,多方面保障用户合法权益的解决方式。

四、过滤义务具体构建

面对现有制度困境,在司法实践的大趋势,依靠业已成熟的过滤技术为在线内容分享平台构建过滤义务已成为大势所趋。参考欧盟已有的立法实践,充分考虑与用户隐私、言论自由利益的利益平衡,我们认为,可以从以下四个方面进行制度安排。

(一)过滤义务的适用对象

过滤义务的适用主体应限定为在线内容分享平台。一方面,网络版权侵权主要发生在提供这类服务的平台中。平台作为数据的管理者,有能力从源头上控制侵权作品的传播,达到过滤义务理想的实施效果。另一方面,这类平台拥有的大量作品,更利于建立内容识别技术所需的正版作品数据库[21]。

设定部分主体义务豁免条件。考虑到过滤义务会给平台增加一定的经济负担,为尽可能避免过滤成本对网络市场发展的限制,针对不同规模的平台承担的义务应有所差别[22]。可以参考《版权指令》对部分在线内容平台进行义务豁免,主要目的在于减轻过滤义务给中小网络企业、新兴网络创业者带来的运营压力。豁免标准需要以法律明确规定,可以参考《关于印发中小企业划型标准规定的通知》依据从业人员数量和营业收入对网络服务企业进行的划分。①《关于印发中小企业划型标准规定的通知》对于软件和信息技术服务业的认定:“从业人员300人以下或营业收入10000万元以下的为中小微型企业。其中,从业人员100人及以上,且营业收入1000万元及以上的为中型企业;从业人员10人及以上,且营业收入50万元及以上的为小型企业;从业人员10人以下或营业收入50万元以下的为微型企业。”同时还可以根据当前网络市场发展状况,将平台用户活跃数量、平台包含作品数量与传播数量、经营年限纳入对过滤义务豁免主体的考量标准。

(二)过滤义务的启动方式

过滤义务采用依版权人通知启动的方式更为合理。将主动权交由版权人,是因为版权人拥有对其作品的自主权,是否采用过滤措施需要遵从版权人的意愿。侵权行为对版权人的利益造成损害,大部分的版权人都有加强对原创作品保护的需求。但当盗版的传播给原作品带来更高的曝光度,版权人从中获得的利益远高于所遭受的损失时,不排除版权人主动放弃对权利行使的情形。依通知启动的方式能够在更大范围内兼顾过滤义务适用的各种情形。

版权人发出通知的内容,应包含以下几个基本要素:1.版权人的基本信息和联系方式。方便平台与版权人取得联系,及时反馈过滤结果。2.适用作品的相关信息及可识别的复制件。过滤技术需要对作品内容进行识别比对,完整准确的作品信息是保证过滤结果准确性的前提[23]。3.对适用作品享有版权的声明。用户应当对其享有作品版权的真实性负责,可以参考微信平台的原创声明,对于违规声明视情节严重程度,平台可采取立即暂停、中止、停止或永久拒绝对过滤功能使用等方式进行处罚。4.已授权其他用户使用的相关情况。为避免过滤措施影响已授权用户的合法使用,由版权人向平台提供已授权用户信息,进行类似白名单设置,版权人可随时管理作品的授权使用情况。由此激励用户积极获取授权许可,推动平台内版权生态良性发展。当平台识别到可能存在侵权的作品上传时,将自动阻止相关内容的传播,并及时向版权人发送通知,由版权人自主选择处理方式。

(三)过滤成本的合理分担

由在线内容分享平台承担主要的过滤成本。平台的过滤成本主要包括:开发内容过滤技术或者购买他人内容过滤服务的成本、系统运营维护的成本、出现过滤错误后的纠错成本。目前过滤技术已经相对成熟,我国许多在线内容分享平台都拥有自主的过滤系统,不存在技术垄断问题。同时,与版权侵权给平台造成的损失相比,主动过滤成本的承担依然是最有效率的方式。以YouTube为例,截至2016年,谷歌运用Content ID系统平均每年产生500万美元的过滤成本,但避免了一亿美元的侵权损失[24]。

启动过滤义务的版权人应支付少量费用。要求版权人付费启动是为了避免用户过度使用过滤请求权,造成资源浪费,加重在线内容平台的负担[25]。同时,为改善前述“避风港规则”下版权人维权成本过高的问题,请求所需支付的金额需要严格控制在普通大众都能承受的水平之下。费用过高会导致一般大众因难以负担而放弃过滤请求,不利于对版权人的保护,还将影响过滤义务的实施效果。具体的价格标准可以由政府协同互联网行业共同设定。

(四)错误过滤的救济机制

当用户受到过滤措施的错误限制后,应当给用户提供充分的救济措施,保障用户的权利。过滤技术整体上具有比较高的精确度,但是单纯依靠计算机机械化的指令执行,不可避免会出现误判情形,对用户的言论自由造成损害。平台应充分告知被限制用户存在过滤机制的事实、受保护的版权作品名称等基本信息、用户投诉和沟通渠道等。用户有权利对过滤结果表示异议,向平台进行申诉。一旦用户提出异议,平台应对引发争议的过滤结果进行人工审查。必要时,平台可以通知版权人,要求其在合理时间提供答复意见。如果平台有理由相信用户并不存在侵权行为(比如,已获得授权或者构成合理使用等),则应当恢复网络服务并告知版权人。版权人如果坚持要阻止用户的传播行为,则可以提起诉讼或寻求临时禁令(行为保全措施)。相反,如果人工审查后平台认为有合理理由继续阻止用户传播,则用户可以选择和版权人协商解决或通过司法途径提起确认不侵权之诉。

在线内容分享平台对于侵权异议的人工审查并不能代替法院的终局判定。人工审查的结果可能与最终法院的判决不一致,这种情况下,平台是否应对错误判断承担责任,要以人工审核的标准是否合理为依据。平台能够证明自身根据现有证据作出合乎情理的判断,而非故意偏袒或者恶意损害当事人利益时,无须承担相应的责任。反之,平台则需要承担帮助侵权的责任。

五、结语

依靠技术支撑版权保护,给现有版权制度改革提供了一个新思路。目前对于在线内容分享平台过滤义务还缺乏充分的理论研究和实践积累。从过滤义务的产生背景来看,过滤义务的产生是完善现有版权规则的合理选择。通过考察欧盟的相关立法实践的优点与不足,能够为我国过滤义务在具体的制度设计提供启示。实际上,过滤义务与现有利益的冲突并不像反对者宣称的那么严重,至少从目前对过滤措施的审查来看,能够在合理范围内实现利益平衡。一套合理的规则设置,能够避免可能在制度运行中产生的风险,最大限度地发挥过滤义务的价值。本文从适用对象、启动方式、成本分担、救济措施四个方面提出的具体构想,必然无法完全保障过滤义务的实施效果,后续仍有待基于理论和实践的发展,进行不断修改和完善。我国网络版权产业还在不断向广度和深度迈进,以加强网络版权保护为方向的制度探索,是推动网络文化产业健康发展的必然要求。

猜你喜欢

义务措施内容
内容回顾温故知新
放养鸡疾病防治八措施
幸福的人,有一项独特的义务
高中数学解题中构造法的应用措施
三十载义务普法情
减少猪相互打斗的措施
跟踪导练(一)(4)
夏季猪热应激及其防治措施
主要内容
“良知”的义务