APP下载

以人为本的哲学教育价值取向研究

2021-03-07赵岩

科学与财富 2021年32期
关键词:以人为本

赵岩

摘 要:近年来,我国经济高速发展,国内形势随着国际形势的变化而变化,现有的哲学教育经受着严峻的考验,已不能满足任何社会在哲学领域的需要。在发展的过程中,哲学教育由于缺乏人文主义而陷入困境。哲学教育要代代相传,适应时代发展的需要,就必须立足于人,贴近现实生活,教学与实践相结合,完成教育改革。

关键词:以人为本;哲学教育;价值取向研究

引言

在人工智能的发展中,必须处理人机与人际关系的关系,公共行政与社会行政的关系,人工智能设计与人工智能伦理的关系,人类伦理与人工智能的关系。人工智能和人工智能定律。人工智能的发展很可能会出现伦理困境,具体表现在人工智能伦理引发的伦理主体问题、公共行政问题、社会发展问题、人工智能发展瓶颈问题上。教育领域等等。

1哲学教育价值的困境

1.1教育价值目标产生偏差

大学作为向学生传授人文知识、形成人文价值观的精神摇篮,始终肩负着锻炼身体的使命,努力成为适应社会、易于管理的群体。而如今,许多大学在教育理念上逐渐转向工具理性和价值理性,这将不可避免地导致学生以人为本的思想缺失。渐渐地,高校的文科教育被实用技术所取代,很多学生不接受哲学相关课程,这也导致哲学社会科学被边缘化。现代哲学以人为主体,以世界为研究对象,其目的是教一般人管理和处理人与世界的关系。现代哲学教育不应该是单纯的知识和科学,更不应该是单纯的思想教育,因为科学是对学生人文精神的启蒙,是分析判断能力的发展,是批判性思维能力的启蒙。如果我们现代哲学的教育目标只是简单地定位为知识的传递,那么即使其中包含了更多的概念、原则和规律,最终也可以摆脱许多难以实现的僵化教条。因此,在坚持现代哲学教育以人为本的同时,实现教育目标从以知识为准则向关注每个学生的转变,以促进学生的最大发展作为一个基本的起点和一个形成的终点。很明显,目前国内哲学教育的价值目标已经有些偏离原来的目标。

1.2哲学教育针对性发生弱化

高校哲學教育面对的是那些在改革开放条件下游泳、积极主动、对事物有自己独到见解的大学生。而哲学教育的关键恰恰是培养学生思维的创造性,注重学生学科的发展和创新。可见,哲学教育是学生素质和思想道德发展的重要途径,而哲学教育的关键恰恰是着眼于学生的思想和生活现实,提高学生的全面素质。反过来,现实高校的哲学教育弱化了对现实生活的关注,忽视了学生在教育过程中的个人主动性和创造性方法,轻视了对随着时间的不断变化而出现的新情况、新现象的研究。哲学教育导向的弱化,使学生感到哲学只是空洞的,与现实世界严重脱轨。

2以人为本的哲学教育价值取向研究

2.1推动当前哲学教育进行风险点排查

第一,从人本理念角度对哲学教育教育目标进行审视,不难发现其教育目标的定位存在一定的偏移,当代哲学教育并不具备准确的核心概念定位,这也导致其教学效果并不理想。其中最主要的问题在于哲学教育既想针对原有自然生命体不规则运动的问题展开审视,又想对人类长期活动所造成的环境影响进行研究,这使其教育目标呈现个体向群体、外延项本质的变化。第二,对哲学教育内容进行分析,其具有明显的相对性与存异性。现在是信息时代,信息技术的发展与普及为教育主体提供了丰富的信息获取渠道,信息主体能够接触的信息量是十分巨大的,信息孤岛现象已经不复存在。而在充分的案例与因由的参考下,教育主体会以日常习惯的思考方式,结合通过常用的信息平台所掌握的信息对哲学教育成效进行判断与思考,这是哲学教育的批判性被着重凸显,也弱化了哲学教育的现实功能。第三,哲学教育的自然学科属性增强,社会学科属性减弱,逐渐呈现出将演变为自然学科附属学科的发展态势。这是因为哲学内容中理性色彩过重,并且逐渐体现出工具倾向,导致其时代影响力不断被减弱。在很多高校中哲学教育的科学体谅正在不断的缩减,这将会对学生的价值观造成严重的影响,当学生世界和社会认知发生偏差时,若不能通过哲学教育对其进行纠正,将会使其更加偏激。从历史及发展角度分析,若长期缺乏有效的哲学教育将会使人类变得短视,从全局态势出发哲学教育的缺位将会使人类减少对本质与发展问题的辩证思考。

2.2坚持多主体参与原则,构建人工智能伦理安全风险防范体系

人工智能在带给人类更多福祉的同时,也可能产生安全风险。因此,政府相关职能部门要鼓励人工智能产品的研究开发者、设计制造者、部署应用者和用户等共同参与,构建多主体参与的人工智能伦理安全风险防范体系,科学应对人工智能可能造成的失控性、社会性、侵权性、歧视性、责任性风险。1.建立人工智能伦理的政府审查制度。政府在人工智能伦理治理中扮演引导者、监督者的角色。政府可以成立专门的人工智能伦理审查委员会,对人工智能产品进行伦理评估。人工智能伦理审查委员会可以由政府职能部门负责人、知名大学教授、企业高管等组成。2.研究开发者在进行伦理设计时要有前瞻性的风险防范意识、合作意识,可以吸收设计制造者、部署应用者和潜在用户等参与人工智能产品的伦理设计,对人工智能产品进行客观、公正、全面的伦理安全风险分析,在设计中要避免研究开发可能被恶意利用的人工智能产品,从而预防对人工智能的误用、滥用;同时,在伦理设计中要把人的基本权利放在首位,尽量避免人的人身权、隐私权、财产权受到侵害。

结语

人工智能的伦理治理是一种前瞻性伦理治理。面对人工智能迅速发展带来的风险和挑战,前瞻性伦理治理要求尊重人工智能的发展规律,动员全体社会成员参与人工智能的开发与应用的全过程。人工智能伦理治理的关键在发挥人的作用。政府的监管和公众的参与是科学家进行“负责任创新”的重要保障。人工智能发展引发的公共安全、责任划界、科技异化、人权保障、教育保障等问题还有待进一步探讨。人工智能伦理的治理原则、治理框架、研究范式、实践转化等还有待进一步深入研究。

参考文献:

[1]张卫.人工智能伦理的两种进路及其关系[J].云南社会科学,2021(5):21-185.

[2]朱琳,周沐融,杨千腾.“革新”与“交融”:基于规范及准则的人工智能伦理生态圈的构建[J].电子政务,2021(7):80-90.

[3]赵志耘,徐峰,高芳,等.关于人工智能伦理风险的若干认识[J].中国软科学,2021(6):1-12.

[4]王东,张振.人工智能伦理风险的镜像、透视及其规避[J].伦理学研究,2021(1):109-115.

3843501186516

猜你喜欢

以人为本
马克思主义青年理论的当前价值
高职院校学生管理精细化浅析
语文教学应“以人为本”
对宪法沿革的几点思考
提升教育智慧,打造高效课堂