APP下载

人工智能体育裁判的风险及其法律规制

2023-12-25刘佳明

天津体育学院学报 2023年4期
关键词:裁判员裁判人工智能

刘佳明

随着计算机运算能力以“指数”级速度增长,人类正逐渐从信息社会向智能社会迈进。体育竞赛作为人类社会活动的重要组成部分,也不可避免地会受到来自人工智能技术的影响[1]。为了顺应智能体育发展的时代潮流,2019 年出台《体育强国建设纲要》明确要求将人工智能与体育实体经济进行融合,并提供一系列政策支持保障。智能技术在体育裁判领域的全面渗透和介入,已成为数字体育发展的主要趋势之一。但是,人工智能在体育裁判领域的应用尚处于起步阶段,其功能定位、发展方向和潜在问题尚未明晰。人工智能在为体育裁判带来科技助力的同时,也会带来一系列问题,这无疑会对智能体育裁判的发展之路造成消极影响。因此,探究人工智能技术和体育裁判相互结合的内在机理及其产生的风险,并从法律层面思考人工智能体育裁判的规制路径,使智能体育裁判的功能得到最大程度发挥,具有重要的理论前瞻性和实践应用性。

1 人工智能与体育裁判的融合

人工智能是由机器或软件通过收集、处理和分析信息来实现决策的一种能力,它往往与理解、记忆、推理、计划相关[2]。在应用层面,人工智能主要包括算法系统层面和基础设施层面的应用,前者包括具体的人工智能软件和解决方案,后者将硬件与人工智能算法进行融合,旨在赋予硬件以更高的智能水平[3]。随着大数据分析、机器学习技术的不断创新发展,人工智能与体育裁判的结合已经迈向一个新阶段。

1.1 人工智能与裁判事实的认定

在体育裁判中,裁判员的裁判过程是一个拥有自我意识和自主选择的认知过程。裁判员对事实的认定已经形成一套稳定的经验框架。(1)裁判员需要达到相应的技术认证标准,才能获取相应裁判资格[4],如国务院体育总局颁布的《体育竞赛裁判员管理办法》第16 条中规定,裁判员技术等级认证考核的内容需要包括对竞赛规则、裁判法和临场执裁考核等内容的了解;(2)对于事实的认定,每一项赛事都有明确的规则作为评判标准,如在羽毛球比赛中,对于接发球员违例或因球触及接发球员场区内的地面而成死球,发球员可以获得相应得分,那么裁判员就需要根据自己所观察到的事实作出认定。而在人工智能体育裁判应用中,有关裁判事实的认定都可以进行数字和数据化处理,并通过计算机编程将其编入算法程序中,从而交由人工智能机器进行自动化处理。

与传统专业裁判相比,人工智能体育裁判在事实认定上具有很大不同。一方面,人工智能机器能够有效抓取和捕获运动员的比赛状况,并根据不同赛事规则自动寻找有用的比赛信息,从而达到对裁判事实的精准认定和快速分析。另一方面,人工智能机器还能利用大数据技术挖掘到无法从比赛中直接获得的信息,并利用相似算法在不同信息之间建立联系,为裁判结果寻找事实根据。通过大数据搜索引擎快速查找存储于大型数据库中所需的特定比赛信息,并在海量数据收集、挖掘、索引、智能筛选等过程中对裁判事实作出精准认定,从而有效提升体育裁判结果的科学性。如在2018 年对阵澳大利亚的世界杯比赛中,法国队前锋格里兹曼在禁区内被对方队员绊倒,VAR视频助理裁判及时提醒主裁,并改判点球,此举创造了世界杯史上首次因VAR改判的记录。

1.2 人工智能与裁判规则的寻找

在体育赛事中,比赛规则需要事先明确规定并对外公布,如此才能保证裁判员对裁判规则的熟练掌握,并将其直接适用于体育裁判实践的应用中。人工智能通过对相同赛事规则的比赛数据进行收集、整理和分析,并对其进行归纳、总结,最终作出相同的裁判结果,从而实现体育裁判的“同案同判”。机器学习的深度运用就能为体育裁判规则的寻找和自主决策提供核心技术支持,是实现“同案同判”的关键要素。

作为人工智能技术的分支领域,“机器学习”能够在数据集中发现变量之间相互关系的自动化过程,通常被用于对某些结果进行预测或评估[5]。得益于机器学习技术的研发和改进,人工智能在一定程度上已经具备相应的自主决策能力,计算机能够借助以深度神经网络为架构的最大似然算法反复进行网络推理,每一次网络推理都试图捕捉给定数据集内数据之间的关系,并反复推理学习数据特征的层次结构,从而赋予人工智能处理高层次抽象的技术特征[6]。而在寻找裁判规则和对目标参数进行优化选择的过程中,机器学习还能借助自我更新参数以及深度学习的方法,进一步提升自身对决策目标的处理和筛选能力。

1.3 人工智能与裁判价值的选择

在体育赛事中,当出现事实认定不清楚、裁判规则存在模糊和裁判结果不确定等情形,体育裁判通常还会涉及到裁判员自身的价值判断和价值衡量问题。一方面,裁判员需要根据赛事特殊性进行理性思考,在事实认定、规则选择和裁判方法的运用上进行审慎评估;另一方面,裁判员在对裁判结果作出判断时,还需要综合考量运动员和现场观众对该结果的可接受性,从而及时调整相应的裁判策略。在专家系统支持下,人工智能机器能够基于数据挖掘中关联规则的分析和裁判模式的设计与构建,帮助裁判员对海量数据进行分析和处理,甚至还可以推理、预测出体育裁判的结果,从而避免裁判员的主观价值判断。

具体而言,人工智能体育裁判的价值判断和价值选择可以分为感知、识别、模拟和分析4 个过程。人工智能机器需要通过传感器对运动员的生物信息进行抓取和感知,这种抓取过程主要通过人脸识别、语音识别的非接触式远程机器来完成,包括抓取运动员的声音、表情、动作和姿势等各种生物信息;然后人工智能进入“识别”阶段,即通过深度学习的方式,人为地将运动员的生物信息与主流价值判断相关联,并以人工标注的形式为各种特征添加价值标签,如美感、韵动和表情以及现场观众反应可能对应的分数值;最后通过模型训练形成与各类赛事比赛特征相匹配的价值判断,并在此基础上总结规律,逐步形成特定的价值判断选择模型,最终保证人工智能机器作出正确的裁判选择。人工智能体育裁判的结果全部由数据分析和计算来完成,因而能够避免裁判员主观判断的随意性[7],使裁判结果变得更加客观和真实。

2 人工智能体育裁判的风险

受制于机器语言与自然语言之间的张力、人工标注隐含价值判断和算法决策具有隐蔽性等因素的影响,人工智能在与体育裁判相互融合的同时也会带来一些新问题,会影响裁判结果的公平公正,不利于智能体育事业的健康发展。

2.1 人工智能体育裁判的技术风险

2.1.1 机器语言与自然语言存在张力 体育裁判的事实认定主要包括比赛状况和裁判规则的事实认定。前者依赖于裁判员的主观认知,后者则需要裁判员结合相应的裁判规则作出正确选择。基于大数据分析、专家系统和机器学习技术的应用和发展,人工智能在体育裁判事实认定上能够达到与专业裁判同样的效果。但人类语言与机器语言存在差异,人工智能体育裁判在目前仍然无法取代专业裁判的全过程。如传统法律领域通常需要使用大量“常识”性知识来解决问题,但常识性知识适应频繁的法律领域并不适合专家系统的开发和使用,因而专家系统在事实认定上仍然会受到很大的技术限制。而在裁判规则寻找上,人工智能体育裁判也会面临同样问题。

2.1.2 人工标准隐含价值判断 在人工智能程序的开发与设计中,程序员需要事先为机器学习选择数据和样例,这些数据和样例最终成为人工智能对类似案件进行裁判的依据。但在数据和样例的选择过程中,数据选择的缺失和预设条件的不合理将直接影响裁判的输出结果。因为在数据输入中,数据本身的真实性和可靠性,以及数据与真实世界的契合度会直接影响,甚至决定人工智能裁判的输出结果。除非人工智能具有与人类决策者相同的感知能力,否则受数据统计偏差、人为价值干扰等外部因素的影响,人工智能体育裁判系统仍无法完全根据体育裁判的需求作出相似回应。

2.1.3 算法决策具有隐蔽性 算法技术较强的专业性和复杂性,包括数据输入、算法程序或架构的设计、再到算法的决策输出,整个流程都需要涉及到相当复杂的数据材料和计算方法,并以计算代码的数字化形式在公众面前呈现。因此,算法决策的过程也被描述为通过“黑箱”将输入转换为输出的过程,一般公众无法从“黑箱”里去理解这种转变如何发生,也不能用传统统计的直观和因果语言来描述这种关系。如果人工智能在体育裁判领域的应用遭受质疑,主要是因为人工智能体育裁判与传统专业裁判存在本质不同。首先,人工智能体育裁判的过程不能用人类所能理解的术语进行解释,不可避免地会不透明。其次,人工智能裁判是基于大量数据识别的相关关系,而不是经证实的因果关系作出的判断选择,在某种意义上带有明显的随机性。最后,人工智能体育裁判仍无法避免会受到特定群体价值判断和选择的影响,因而会带有较强的主观性。这些特点以看不见的方式成为阻碍人工智能体育裁判功能实现的关键性要素。

2.2 人工智能体育裁判的法律风险

2.2.1 侵害体育裁判员的自由裁量空间 在人工智能技术的应用过程中,人工神经网络的开发和机器学习的进步能赋予人工智能相应的自主决策能力,这种“自主性”构成对机器工具本质的挑战,从而危及裁判员的主体性地位,侵害裁判员的自由裁量空间。依据《体育法》第30 条、《体育竞赛裁判员管理办法》第32~38 条中相关规定的要求,裁判员资格的获取需要经过严格的考核选拔和程序,在体育裁判活动中,裁判员需要按照既定的赛事规则进行裁判,并拥有自由裁判空间。而将人工智能引入裁判领域虽然可以有效防止裁判员的恣意性,实现裁判结果的公平公正,但当人工智能在对裁判结果进行预测和纠错时,还会直接或间接地对裁判权进行干预,据此作出的裁判结果不仅会在一定程度上与公平公正的体育价值目标相抵牾,还会无形之中限制裁判员的自由裁量空间。

因为当裁判员认定的结果与系统预测结果存在偏差时,系统会自动向裁判员发出警示,如果裁判员忽视系统作出的风险警示,直接依据自己的经验进行自由判断,则会在舆论上遭受到很大压力,并将面临对裁判结果进行说理和解释的心理负担,这无疑会增加裁判员的裁判风险,致使有些裁判员为了减轻工作负担倾向性地选择接受人工智能体育裁判系统做出的裁判结果。因此,将人工智能机器引入体育裁判领域看似提升了裁判员的裁判效率,实则上已然构成对裁判员自由裁判权的入侵。即使人工智能裁判系统能够在较大程度上实现裁判结果的“同案同判”,但人工智能除了缺乏体育艺术要素和情感要素的体验和总结外,更重要的是它作出的裁判结果是建立在以往裁判结果数据的模仿和遵循上,这会导致裁判员丧失通过独立裁判引领社会风尚以及重塑体育裁判价值的无限可能。更无法通过自由裁判的形式为体育竞赛注入新鲜血液、赋予新的裁判内涵并缓解体育规则模糊、规则滞后性等难题。

裁判员作为独立的裁判者面对人工智能带来的决策风险,在已经接受人工智能预测和纠错功能的情形下,如何尽可能避免因人工智能带来的决策风险,也是衡量裁判员裁量权独立性的另一个重要指标。然而在实际运用中,人工智能体育裁判的应用还会为裁判员减轻自己的责任负担提供理由。虽然我国《体育竞赛裁判员管理办法》第39 条、第40 条对裁判员的自由裁量权作出了诸多限制,并设定相应的裁判责任来强化对裁判员的监督和管理。但是,当人工智能成为体育裁判的决策者或纠错者时,其对传统裁判责任承担的影响不言而喻。一旦系统作出的裁判结果出现争议或者错误时,追本溯源,该裁判是算法决策出错导致结果,最终的责任应当由谁承担或者如何分配其中的责任,这都是人工智能体育裁判将要面临的问题。而在责任划分不清晰,且责任追究机制不健全的情形下,裁判员为了减轻甚至推卸自己的责任,可能会完全将裁判权交由系统来执行。

2.2.2 侵害运动员权利 (1)侵害运动员的公平竞争权。公平竞争权来源于《体育法》第34 条之规定,指体育竞赛活动中各相关主体为争夺有限的体育发展资源或对自己有力的存续条件,以规则公平为前提或许可的技术运用范围内,各相关主体以同样规则为标准进行裁定的竞争[8],包括参赛的公平、竞赛规则的公平、裁判员执法的公平和成绩判定的公平[9]。在体育裁判中,公平竞争权的保障要求裁判员平等遵守规则,并基于客观事实和比赛规则作出无偏见的裁判。从裁判效果看,虽然人工智能对其所作出的每一个裁判都会遵循相同的规则,但表面上中立的技术也可能产生实质性偏见的裁判结果,从而对运动员作出不利裁判结果。人工智能体育裁判侵害运动员公平竞争权主要有两个方面的来源:内部来源,即数据收集出现偏差或错误直接影响人工智能裁判的输出结果;外部来源,即当潜在外部主体利用反映或内化某种形式的结构性偏见数据信息,间接导致人工智能作出不公平的决策。这些都是人工智能侵害运动员公平竞争权的主要原因,不利于维护体育赛事的公平公正。

(2)侵害运动员的申诉权。我国宪法赋予公民申诉权,运动员作为普通公民同样可以申诉维权,但不得编造事实进行诬告、陷害[10]。在体育裁判遭遇不公时,运动员可以通过体育仲裁、行政复议和行政诉讼的方式维护自己的合法权利。但是,面对人工智能这一新兴技术在体育裁判领域的应用,运动员要想获得权利救济的路径非常困难。因为算法决策具有隐蔽性,使体育裁判过程变得不透明,运动员要想对裁判结果进行申诉和救济将变得十分困难。此外,数据来源、算法程序和基于系统因素所带来的瑕疵指令等技术原因也会对运动员的权利申诉造成困难。此外,包括仲裁员、行政机关复议人员和法官受到知识结构和背景的限制影响,在应对人工智能体育裁判这一新鲜事物时往往会显得捉襟见肘、力不从心,要想对人工智能的裁判结果进行复核、仲裁十分困难。

3 人工智能体育裁判的法律规制

面对体育裁判这样有着价值选择和价值判断的特殊领域,人工智能的运用或多或少会遭遇到一些问题。受制于自然语言的开放性和模糊性,人工智能在体育裁判的事实认定和规则寻找上仍存在很多问题。即使能够克服,但因其与传统人工裁判的专业性仍存在较大差距,决定了人工智能在体育裁判领域的应用仍然需要保持必要的限度。对此,需要正确认识人工智能体育裁判可能带来的风险,从而强化人工智能体育裁判的法律规制路径。

3.1 科学防范人工智能的技术风险,实现裁判结果的公平、公正

(1)鉴于机器语言与法律语言存在张力,人工智能体育裁判的应用需要邀请专门的计算机技术专家和法律专家对技术资源和法律资源进行整合,并通过引入“交流型专家”来协助技术内核部分,在专家和公众之间实现知识传递和共识达成,从而实现机器语言与自然语言的有效衔接。在人工智能与体育裁判的融合中,需要法学、计算机科学、体育学知识等不同人才进行深入交流,以此突破人工智能体育裁判语言限制的瓶颈,必要时由不同专家共同组成独立机构专门研发不同语言之间的融合。(2)为了提高人工智能体育裁判的公正性,避免人工标准隐含价值判断的影响,需要从数据输入环节对智能辅助体育裁判的流程进行监管。在数据源头的选择环节,监管人员需要对数据进行清洗和筛选,并建立动态数据流入和退出机制,从而提高体育裁判数据输入的质量。而在人工标准的选择过程中,需要监管人员根据输入数据的可能影响进行综合评估,并制定相应的人工智能体育裁判技术规范和伦理指南,强化对技术开发人员的监督和管理。在数据形成算法决策的运行过程中,还需要对算法影响结果进行审慎评估,保证算法裁判的输出结果不偏离裁判员的预期目标,实现算法正义和数据正义。(3)为了应对算法“黑箱”带来的问题,需从程序和实体上着手对算法决策进行有效监督和管理,从而提升人们对裁判结果的可接受性。一方面,应当严格依照比赛相关规定的要求,算法主体需要披露据以裁判的相关算法规则,其中包括正在优化的目标函数、用于优化的方法、算法的输入变量以及开放源代码,据此可以了解人工智能裁判的全过程。另一方面,鉴于人工智能的形式化特征可能会减损必要的裁判程序,尤其是人工智能裁判的结果导向性以及不可窥探性可能会导致裁判出现错误,甚至偏差。对此,可以要求算法设计主体对人工智能裁判的过程和结果向外公开,特别是争议较大的热点竞赛和复杂竞赛项目,仲裁机构或人民法院有权要求算法主体强制披露算法的运行规则,从而提升人们对裁判结果的可接受性,最终实现裁判结果的公平、公正。

3.2 明确人工智能体育裁判的辅助地位,科学划定辅助权限

(1)考虑到社会公众对人工智能体育裁判的接受和认可还需要较长时间,至少在可预期的未来,将人工智能定位为人类裁判的辅助性工具较为适宜和准确。此定位有助于理清裁判员和人工智能之间的差别,在强化裁判员的主导地位之时,相应地认可人工智能的辅助性地位,能为人工智能在体育裁判中的运用扫清障碍。但是,现有《体育法》《体育竞赛裁判员管理办法》以及相关行政法规和部门规章的规定,在人工智能体育裁判的法律规制上存在明显的缺位与不足,而《新一代人工智能发展规划》过于偏重人工智能技术发展而对智能化体育产业未予以适当关注[11]。这些立法上的缺失已经影响人工智能在体育裁判领域的运用和发展。人工智能作为辅助裁判员决策的重要工具,应当有明确的立法作为依据。对此,应当对《体育法》《体育竞赛裁判员管理办法》作出相应修改,以明确人工智能体育裁判的辅助性地位。

(2)为了保证人工智能更好地发挥体育裁判的辅助作用,必须严格限定人工智能在体育裁判领域的适用范围。在实体层面,人工智能体育裁判可以很好地适用于赛事简单、规则清晰、争议不大的体育竞赛,通过引入智能辅助裁判系统,可以实现体育资源的优化配置、提高体育裁判的供给能力。但是,针对赛事复杂、规则比较模糊、争议很大,且带有主观评价性质的体育竞赛,则必须凸显体育裁判公平公正的价值要求,将公平价值放在首位。现阶段的人工智能体育裁判无论从技术的成熟性,还是从机器学习的深度运用上,仍无法完全实现对上述复杂竞赛之事实认定和规则寻找,成为人工智能辅助体育裁判系统不可涉足的领域。体育裁判不应该只表现为一系列数字或代码组成的符号,应该是在事实认定和规则适用过程中彰显体育裁判的“人文关怀”价值。应用层面,应当根据体育竞赛的不同阶段、选拔程序的不同功能对人工智能辅助裁判的权限作出不同处理。

(3)坚持体育裁判员的主体性地位。尽管人工智能技术发展日新月异,更新速度较快。对于人工智能在体育裁判中的运用而言,应当认识到人工智能融入体育产业,并对体育裁判造成影响是科技发展的历史必然,体育产业的发展不能固步自封。在此情形下,推动人工智能在体育裁判的运用是实现体育与科技融合的应有之义,故而对人工智能体育裁判应当保持开放的态度。此外,对人工智能辅助体育裁判的应用,还必须保持审慎的态度,尽可能采用较为成熟的人工智能技术。在体育裁判过程中,既要适当借鉴并参考人工智能所作出的裁判决定,同时也需要避免裁判员的主观性和标准的不统一性,从而促进新时代中国体育法治化的建设和发展[12]。纵使人工智能体育裁判冲击了传统体育裁判的认定规则,但在弱人工智能阶段,仍需坚持体育裁判者的主体性地位,应当否认人工智能承担体育裁判的主体资格。人工智能体育裁判的结果对于裁判员而言仅具有“建议”权限,而非“决断”权限,人工智能体育裁判系统作出的裁判结果,无论正确与否,都需要经过裁判员的严格审查和校正。

3.3 建立健全规范化的裁判纠错机制,保障运动员的基本权利

由于智能辅助裁判系统可能存在评判错误,故而必须强化对运动员权利的保障,对此需要建立规范化的纠错机制。(1)在体育竞赛中使用人工智能辅助裁判,必须有明确的记录,要求裁判员对依靠智能辅助系统作出裁判的依据进行说理,包括裁判系统的原理和以供参考的类案,以供运动员和其他利害相关人审查复核。与此同时,记录中还必须载明所使用人工智能辅助裁判系统及其开发商和设计人员,在对裁判系统的科学性产生合理怀疑之时,可以通过鉴定或者邀请技术专业人员对系统原理进行查验、质询。系统开发人员有义务对其裁判系统的算法原理、逻辑和决策的科学性提供证明。(2)为了维护运动员的合法权利,还需要为遭受到人工体育裁判的利害关系人提供必要的救济渠道,利害关系人可以就不合理使用智能辅助裁判系统提出相应的权利救济请求,包括司法仲裁和诉讼等。在相应的救济程序中应当将“可能存在不合理使用智能辅助裁判系统的情形”作为申请权利救济的事由。考虑到人工智能体育裁判的专业性和复杂性,以及裁判主体和运动员掌握信息程度上的不对称性和悬殊性,还应当设立专门的人工智能体育裁判委员会对智能辅助裁判进行监管。在裁判纠纷发生之后,人工智能体育裁判委员会作为独立或专业的监管部门或协调机构,应当充分发挥自身的技术优势和专业优势,为运动员权利救济提供必要的帮助和指导。(3)需要对智能辅助裁判系统的安全设计、隐私设计模型进一步补充和强化处理,以便对算法实时监管和追责。由于智能体育裁判所有环节都是建立在数据分析和自动化算法决策的技术基础之上。面对人工智能带来的危害以及归责上的困难,需要在明晰人工智能系统内部运行逻辑的基础上,创新现有法律责任归责体系,创造出符合人工智能技术特征的责任追究机制,从而制止利用人工智能算法侵害运动员权利和损害社会公共利益的行为。对此,应当在立法中对人工智能体育裁判的相关责任主体予以明确确立,其中涉及人工智能系统内部的角色设置与责任分配,包括算法模型选择与运行、算法记录整理与保存、算法记录的公开或披露、算法规则的解释等诸多具体责任事项[13]。考虑到人工智能体育裁判的辅助性地位,其法律责任承担主体应该以使用主体为主,人工智能系统内部角色的责任承担应当是辅助责任,并根据设计者的主观过错为依据来划分相应的责任范围。

4 结束语

基于专家系统、机器学习和大数据分析技术的进步与提升,人工智能在体育裁判领域具有广阔的发展前景和运用空间。在现有技术条件下,人工智能算法技术仍然存在诸多局限,严重影响其在体育裁判领域的具体应用。为保障体育竞赛的公平、公正,维护运动员的合法权利,需要对人工智能体育裁判的风险进行规制。但是,人工智能体育裁判规制过程是一个系统化和精细化的工程,在不同场景下人工智能体育裁判的运用和规制方法有所不同,如何实现人工智能与体育裁判的有机融合,并保证人工智能体育裁判应用的规范性和伦理性,仍亟待学界和实务界予以深入研究。

猜你喜欢

裁判员裁判人工智能
短道速滑裁判员的临场执裁能力及其培养路径
法官如此裁判
法官如此裁判
法律裁判中的比较推理
2019:人工智能
清代刑事裁判中的“从重”
人工智能与就业
山东省青年排球裁判员现状与发展对策研究
数读人工智能
下一幕,人工智能!