赵磊磊 等 | 内在主义技术伦理:教学评价智能化转型考量
【刊载信息】赵磊磊,蒋馨培 & 代蕊华.(2023).内在主义技术伦理:教学评价智能化转型考量. 中国远程教育(01),40-48.
【摘要】基于教学评价智能化转型的内涵与逻辑,本研究以内在主义技术伦理为考量视角,提出教学评价智能化转型的内在主义技术伦理考量框架,即:智能评价主体应关注技术的道德协同性,智能评价技术应关注道德算法设计,智能评价过程应遵循公平伦理规范,智能评价行为应依赖“人-智”伦理秩序。研究发现,内在主义视角下教学评价智能化转型存在的伦理风险主要体现在人工智能应用僭越教育主体尊严,智能评价数据挖掘违反信息道德界限,智能评价算法偏误破坏教学决策质量与公平,以及智能化教学评价活动偏离人本伦理轨道等多个方面。为此,从内在主义视角提出教学评价智能化转型的技术伦理规约路向:关注人文情感与技术理性的结合,树立需求本位的人机关系准则;实现有道德的算法设计与优化,合理保障师生教育自由与隐私安全;聚焦智能技术蕴含的积极伦理,增强对智能评价算法的动态监测;发挥智能评价的行为影响,构建以人为本的评价伦理秩序。
【关键词】内在主义;人工智能;教学评价;智能化转型;技术伦理;以人为本;伦理风险;规约路向
引言
伴随科学技术的迅猛发展,人工智能进入了一个前所未有的快速发展时期,其在教育领域的应用已成为各国政策的关注要点。2020年10月,中共中央、国务院印发的《深化新时代教育评价改革总体方案》提出,要“充分利用信息技术,提高教育评价的科学性、专业性、客观性”(中共中央、国务院, 2020),鼓励并支持评价工具、手段、方法的智能创新。2021年国际人工智能与教育会议强调应推动人工智能与教育教学深度融合(教育部, 2021),为利用人工智能促进教育评价数字转型提供了新的理念与思路。可见,教学评价智能化转型已成为未来教育评价变革的重要趋势。尽管学界已从宏观思维、发展方向和微观技术手段等方面对教学评价智能化转型进行不少探索,却较少关注教学评价智能化转型的伦理向度。从技术伦理角度而言,教学评价智能化转型不仅蕴藏巨大的技术红利,也存在一系列的技术伦理风险。由此,本研究尝试从内在主义技术伦理视角分析教学评价智能化转型的伦理风险与纾解路向,以期为人工智能背景下教学评价伦理风险规约提供价值参照。
一、
教学评价智能化转型的内涵与基本逻辑
(一)教学评价智能化转型的内涵
人工智能这一概念于20世纪50年代在达特茅斯会议上首次提出,是指由人类所创造的智能,也被称为“机器智能”。从广义上说,人工智能是由计算机操控机器去处理复杂任务的能力;从狭义上说,人工智能是研究使计算机能够模拟人的某些思维过程(如推理、概括、总结归纳等)并以与人类智能相似的方式做出反应的技术科学。从定义可看出,人工智能本体具备赋能属性,并通过理念重塑、技术革新和应用创新外化出来(谢幼如 等, 2021),其赋能教学评价的外化形式表现在通过图像识别(视觉)、语音识别(听觉)、自然语言处理(语言)和数据分析等技术助力教学评价智能化转型。例如,挖掘与收集学生学习数据,根据数据对学生进行实时评价,并预测学生学习轨迹。
关于教学评价智能化转型的内涵阐述,学界的研究视角存在一定差异。其一,关注教学评价中的要素变化。胡钦太等(2021)指出,人工智能时代的教学评价在评价主体、评价体系、评价结果、教学决策等方面都发生了转变;吴立宝等(2021)架构了人工智能时代课堂评价发展的新体系,认为智能技术将推动教学评价在评价主体、内容、方式、结果等方面发生变革。其二,关注人工智能为教学评价提供的技术优势。张生等(2021)阐述智能时代评价的新形式——学评融合,即统筹评价的学习性和诊断性为一体;袁磊等(2021)认为可利用心理测量学、计算机评价设计、教育数据挖掘和机器学习开展设计基于游戏的评价,全方面衡量学生多方面的技能(如创造力、协作和社会情感技能,以及学习者在科学和数学等传统领域的“思维”能力)。
综上所述,教学评价智能化转型的内涵阐述主要集中在评价主体、评价内容、评价过程、评价功能等方面。首先,从评价主体来看,智能技术可成为教师、管理者等评价主体开展信息采集的辅助者,教师、管理者等可基于智能数据挖掘提出科学的评价观点。其次,在评价内容方面,区别于传统的经验式评价,智能化教学评价较为关注基于教与学现场的证据扫描与数字画像刻绘。再次,在评价过程方面,教学评价智能化转型摆脱了传统评价在时间与空间上的局限,不再是基于特定时间点展开教学评价,而是涉及课前、课中和课后的全过程分析。最后,在评价功能方面,传统教学评价较为关注现状描绘,智能化教学评价不仅可实现教学实况的动态呈现,而且可有效预测师生未来成长轨迹并助力发展性评价实现。
(二)教学评价智能化转型的基本逻辑
基于前文所述,本研究尝试从评价主体、评价内容、评价过程、评价功能几方面分析教学评价智能化转型的基本逻辑。
1. 助力以教师为主导的智能信息采集体系的构建
人工智能在教学信息采集中的应用有助于实现教学数据挖掘的智能转型。智能技术可充当教师数据采集提取的助手,助力以教师为主导的智能信息采集体系的构建。具体来说,一方面,人工智能技术利用数据自动汇总、特征分析、深度学习和教学行为特征建模仿真等技术,可有效助力教师进行数据的智能化筛选、采集、整合等工作(Dignum, 2018),可视化呈现学生真实的学习状态与画像,获取学生的动态学习需求、个性特征与学习进度。另一方面,教师在教学评价中仍应承担主导作用,践行以人为本的育人取向,领导与配置技术工具的整体运用方向和限制。人工智能技术从开发伊始便是作为一种技术工具所使用的,无论技术发展程度如何,始终都不能僭越其本身的工具身份。教师在使用智能技术开展教学评价的过程中,应充分规避智能技术应用过程中的伦理风险与负面效应,发挥智能技术赋能教学评价的最大效用。
2. 促进教与学现场的证据化诊断与反馈
从评价功效角度而言,教学评价可被视为指引教育教学发展的“指挥棒”,可为教学决策的制定与改进提供事实依据,为教师教学行为与进度的及时调整提供证据支持。从教学评价与教学数据之间逻辑关系的变革来看,传统教学评价在教与学现场资料的归类、整理与提取等方面存在明显不足,缺乏对教与学现场的证据化诊断与反馈。在传统教学评价体系中,关于教学质量、教学公平、教学效率等评价内容的认识与理解存在主观化与经验化取向,教学评价的问题定位功能存在失真现象,且传统教学评价指标的选择与权重的确立因评价主体差异而可能存在指标构建不一致或者模糊不清的现实问题。基于人工智能的教学评价在一定程度上实现了对传统教学评价的场域突破,可有效促进教与学现场的证据化诊断与反馈。一方面,通过智能感知、情感计算等智能技术,教学评价主体可精准捕捉课堂教学全过程中师生的面部、肢体和语言信息,开展基于多模态的大数据筛选与分析,获取教师行为、学生情感、课堂互动等方面的教学表现,基于教学现场数据发现教学困境与问题学生(如学困生)。另一方面,可通过自然语言处理、机器学习等智能技术,从一段时间内教师教学、学生学习的行为表现中获取课堂教学与学生发展的实践规律,探寻教与学数据之间的逻辑关系,为学校教学决策调整提供理论参照。
3. 助推教学轨迹的全过程追踪与描绘
不断迭代升级的人工智能技术在一定程度上催生了新的教学监测范式。通过综合应用生物识别、自适应决策、机器学习等智能技术,可以实现精准的学习过程追踪(Kumar, 2019)。传统教学评价在追踪教师教学轨迹方面存在明显短板,旁观式观察、经验式总结等教学评价方式难以精准描绘课堂教学轨迹样态。基于人脸识别、智能感知、图像识别等智能技术的应用,促使以往难以采集到的师生关键信息数据得到有效的整理与归类,对跨年级、跨学科的课堂教学轨迹进行描绘与追踪成为可能。首先,在教师备课与学生准备阶段,可通过大数据搜索与智能分析技术定位学生个性化学习需求与学生学情情况,实现课前学科知识预习状态的精准识别。其次,在课堂教学阶段,可利用智能感知、情感捕捉等智能技术,捕捉教师教学语言、肢体语言、学生互动频率、举手次数等相关信息,分析学生课堂投入专注度、师生课堂互动情况、教师教学风格与教学偏好,进而厘清课堂教学优势与劣势。最后,在课后学习阶段,通过智能作业批改系统、智能课后辅导系统等,可在作业点评、错题分析等方面突破时间和空间的限制,实现对学生课后学习质量的智能监测。
4. 实现师生未来成长轨迹的精准预测
教学评价的核心功能不仅在于指向教学现状的诊断,也在于指向未来教学方向与学生发展路向的预测,应通过教学评价功能的发挥为师生成长机制的明晰提供有效的事实依据。受制于传统教学评价工具在数据追踪方面的功能局限性,传统教学评价往往较为关注某一截面教学数据(如教师给予的期末或期中成绩等)的采集,忽视过程式数据(如学生日常遵纪守规情况、班级活动参与度、比赛与获奖情况等)的筛选与采集。人工智能的出现,使全过程式数据采集具有了更大的实现可能,有助于实现师生未来成长轨迹的精准预测。第一,人工智能可成为学生身心素质测评与改进的辅导员,可基于智能技术采集学生各种网络数据,对其心理健康、体质状态与行为动向进行预测。第二,人工智能可成为精准教研中的互助同伴,可根据采集的教师听课、磨课、备课、授课、评课等多环节数据,并结合其语言与教学风格,挖掘教师专业发展潜力,精准预测教师未来专业成长路向。
二、
内在主义:教学评价智能化转型的技术伦理考量新视角
智能时代,在教学评价智能化转型过程中出现的伦理问题不容忽视。内在主义为人工智能视域下教学评价的发展提供了新的伦理考量视角,也为教学评价智能转型中存在的伦理问题提供了新的考量尺度。为明确人工智能时代教学评价智能化转型存在的问题与发展方向,拟基于内在主义视角对教学评价中的评价主体、技术、过程、行为各要素进行重新审视。
(一)内在主义视角下教学评价智能化转型的技术伦理考量必要性
《礼记·乐记》中有记载伦理一词,其言:“凡音者,生于人心者也;乐者,通伦理者也。”郑玄注:“伦,犹类也。理,分也。”在这里伦理仅代指事物的条理。汉贾谊在《新书·时变》中说道:“商君违礼义,弃伦理。”这里的伦理代指中国古代人伦道德之理。从学术角度来看,伦理是作为约束道德发展的隐性规约,是对崇高道德的一种隐性探寻,多指能够对事物间关系起规范作用的道理与准则。技术与伦理之间存在密不可分的联系,深刻表现在技术的应用与发展始终离不开伦理道德的规约。作为人工产物,技术算法的运行机理具有伦理模糊性,技术伦理风险便成为人们无法避免讨论的问题。技术的“可用性”和“隐蔽性”往往相互交织,技术与教育的整合会对教育内外部关系产生伦理冲击。随着近代以来技术与科学的联姻,人与技术的主体关系也发生了种种变化,原先人与人、人与自然的伦理学不得不加入技术的维度,一种面向新时代的内在主义技术伦理学呼之欲出。
“内在主义技术伦理”不同于传统伦理学,其关注的是技术的积极伦理后果,主张在对象中“嵌入”伦理要素,目的是利用技术手段解决伦理问题(张卫, 2022)。概括而言,内在主义技术伦理是相较于外在主义技术伦理而言的,二者区别的核心在于内在主义只关注对自身发展有价值的东西,而外在主义更看重由于其他原因而有价值的东西(Owe & Baum, 2021)。从辩证统一的视角看,技术与伦理发展之间既存在对立关系,也存在统一关系,外在主义强调技术对伦理规约的破坏,内在主义强调技术对伦理问题的完善。展开来说,“内在主义”(internalism)区别于“外在主义”(externalism)的主要特征在于:把伦理与技术的关系从“对立”转换为“合作”;把伦理的职责从外在的“监督”转变为内在的“介入”;把关注的焦点从下游的“应用”转移到上游的“设计”。这些变化带给技术伦理学的影响是基础性、全局性的,甚至可以称得上是研究“范式”的转型(张卫, 2018)。
具体来说,内在主义技术伦理既是对技术伦理问题的一种全新约束,也是推动技术与伦理共同发展的中介理论,其视技术和伦理为相互依存的关系,认为技术进步的最大意义在于为原有的伦理问题提供全新的解决方案,而伦理问题的解决也会推动人们伦理观念的提升,进而推进技术的发展。以内在主义技术伦理为理论视角,人工智能场域下的教学评价发展应着重探寻技术推进与伦理问题解决的共生关系。首先,在人与人工智能的关系上,“内在主义”主张人的能动性要受到人工智能的居间调节,它不赞同人具有完全自主的能动性这一说法,也不同意将技术凌驾于人之上,强调技术对于人的帮助作用,倡导人与技术开展合作。其次,在伦理自身的发展上,“内在主义”要求把伦理的职责从外在的“监督”转变为内在的“介入”,即将伦理规范融入人的实践活动中,从内在要求约束可能出现的伦理问题。再次,在对技术本身的考量上,“内在主义”不再将视角锁定在技术应用过程中伴随出现的伦理问题上,而是追根溯源关注算法的设计与开发,期盼从源头解决技术伴生的伦理问题。最后,就研究视角而言,“内在主义”既关注技术内部的运转逻辑,也关注孕育于社会情境中的人与技术、道德的关系,将伦理视为技术发展过程中的规约力量。综上所述,内在主义技术伦理学更倾向于采取内在性、发展性的态度面对技术产物对社会与人造成的伦理影响,并将偏向消极化的外在伦理问题解决转化成伦理内部的积极消解过程。
(二)教学评价智能化转型的内在主义技术伦理考量框架
本研究以内在主义技术伦理为分析视角,认为教学评价智能化转型需关注以下伦理要素(如图1所示)。其中,评价主体是教学评价的开展基准,需关注人工智能本身具有的道德协同性;评价技术是教学评价开展的技术支撑,应从算法设计层面关注道德融入;评价过程是教学评价开展的主要途径,应遵循公平伦理规范;评价行为是教学评价开展的核心手段,应依赖人—智伦理秩序构建。
图1 教学评价智能化转型的内在主义技术伦理考量框架
1. 智能评价主体应关注技术的道德协同性
“内在主义”倡导技术与人建立合作关系,在开展教学评价的过程中人工智能的感知与度量技术可为教学评价提供实证信息支持,但需明确其仅可作为辅助教学评价开展的技术工具,故教师主体应对其进行恰当的技术领导。具体而言,一方面,内在主义认为人工智能本身就具有一定的“能动性”和“道德性”,需要赋予人工智能相应的道德意义和道德主体地位。若没有对人工智能进行道德层面的考量,便无法保证其做出的教育决策等符合社会伦理道德标准,不会破坏人与人之间的情感关系,不会阻碍教育过程中师生情感关系的正向建立。另一方面,人工智能技术本身可作为教学评价主体,但因其所具有的“道德意识”与“道德行为”还不够成熟,故需受到教师的规控。在人工智能参与教学评价的过程中,没有哪个环节是能够完全脱离人的行为而运行的。数据的采集、分类、筛选需要学校技术人员或教师参与,算法的设计也需要各校根据具体情境与需求进行调整,且教学情境中存在的许多信息都较为微妙,人工智能技术无法穷尽人与人之间的行为数据与交往法则,亟须与教师等其他教学评价主体建立和谐的合作关系。
2. 智能评价技术应关注道德算法设计
“内在主义”强调从算法设计这一源头加入“道德”约束,基于人工智能的教学评价技术需关注道德算法设计,若智能算法的设计未充分嵌入教育价值观、教育伦理规范、教育责任意识等道德元素,则智能算法很难助推教学评价实现“向善”的价值目标。一方面,算法或自动决策系统已经应用于信用评分、学分管理、作业批改等教学评价的诸多环节,如若算法设计存在道德缺陷,且智能系统本身缺乏对道德意图与规范的理解,则其在教学监测、测评、反馈等环节易引发学生教育主体性失位、合规权益受损、权责矛盾、利益冲突、信息偏差等方面的伦理问题。另一方面,人工智能在赋能教学评价的过程中极为依赖智能算法与数据的动态交互,智能算法在一定程度上承载着相应的人类观念与行动目标,尽管可基于教育教学过程中大规模数据进行试错训练与模型预测,但此种智能算法是否懂得并践行“数据道德”尚未可知,智能算法设计是否能兼顾教学评价利益相关者的道德诉求并实现教学评价行为“向善”发展亟待进一步探索。
3. 智能评价过程应遵循公平伦理规范
“内在主义”认为要在日常实践活动中融入道德伦理要求,由于教学评价过程中涉及的学生个人信息较多,一旦忽视相应的公平伦理规范,极易造成相应的数据标签与歧视,进而对被评价者身心造成伤害。具体来说,一方面,人工智能根据挖掘与反馈出的一些伴随性、隐形性的教学信息(如学生的情绪变化、异常行为、学业焦虑等)给学生打上相应的标签,如“成绩落后”“情绪焦虑”等,但人工智能目前尚未具备能够根据数据深挖师生情感与心理问题的能力,若教师不对评价结果进行矫正,仅靠数据结果对学生行为表现打出相应的“标签”,有失评价公平,是在某种程度上对学生的歧视。另一方面,智能评价过程依托于人工智能的算法分析与预测,但算法的内在运行机制并不透明。在智能评价开展的过程中,人工智能利用文本挖掘、语音识别、图像识别、情感计算等技术对学生德智体美劳等方面全过程信息进行及时抽取与整合,并对一些微观数据(如学生的人际交往水平、语言表达能力、身心健康水平、艺术素养等)进行实时监测与图谱分析。这些数据收集分析的标准并没有直观呈现出来,评价者与被评价者所接收到的信息仅仅是“开朗外向”“语言表达能力强”等词条。学生本身发展是呈动态趋势的,过于看重此类“正向”的评价词条,极易被此类隐性算法控制人的意志并引导人的发展方向,继而违背评价过程中本应遵循的公平伦理规范。
4. 智能评价行为应依赖“人-智”伦理秩序
不同于“外在主义”所侧重的对技术造成的后果进行反思批判,“内在主义”强调技术与伦理的依存关系,倡导以伦理秩序作为技术发展过程中的约束力量。教学评价不仅指向个人发展,而且其本身也是人为之物。基于人工智能的教学评价行为也是技术伦理关照的现象元素,不应只关注教学评价结果,也需立足于评价主体的教学评价行为(涉及评价目标设计、评价方案选择、评价活动实施、评价利益协调)规约,若评价行为失去伦理调控,将有可能出现教学现象还原偏差、师生发展方向混乱、教学信息资产归属不清等伦理问题。因此,教学评价行为亟须依赖“人-智”伦理秩序进行构建。一方面,作为嵌入人行为观念的技术产品,人工智能具有一定的行为导向,若其行为导向与教学评价参与人员的行为诉求存在冲突,则很难实现教学评价的预期目标,也易在评价方案的执行中侵犯师生发展权益,因此极有必要在智能算法设计及执行方面嵌入伦理原则与意识。另一方面,人工智能在教学评价的应用中虽受教学评价利益相关者的监督与引导,但相应的应用过程存在众多“盲盒”与“黑箱”,如违规技术使用、数据茧房、数据泄露、隐私安全、决策偏见等,因此对教学评价行为的伦理判断应依托于教学评价行为问责与改进机制。
三、
内在主义视角下教学评价智能化转型的技术伦理风险
教学评价智能化转型存在众多现实难题与障碍,基于前文所述,以内在主义技术伦理为理论基础,本研究尝试对教学评价智能化转型的技术伦理风险做出如下归纳。
(一)人工智能应用僭越教育主体尊严
内在主义倡导人与技术建立合作关系,认为技术本身具有一定的能动性,但在应用中需要受到人为管制。智能技术通过编码学生学习行为数据推算学生学习情况,有效提高了教学评价的效率。但教育活动本身是以师生为主体、注重人文情感的交互活动,当智能技术所携带的工具效率取向过多渗透到教学评价活动之中时,原本存在于教学评价中的情感因素可能会被渐渐悬置,从而使评价中的人类主体尊严遭到破坏。一方面,人工智能技术会破坏教学评价中的师生关系纽带。学校教育较为重要的功能便是由教师等专门从事教育的人员开展学生学业、品德、修养、价值观等方面的评价,基于人工智能的学生成长状态监测虽能承担部分评价功能,但基于数据筛选与处理的智能评价报告难以通过感性的方式(如情感激励、心理慰藉)赋能学生德行修养等方面的成长。另一方面,技术理性冲击人类独有的情感尊严。技术以其特有的强算力、高效率等特质强势入场,扭转学校的教学评价系统。智能评价系统虽有利于促进教学评价标准化与科学化发展,但忽视了学生内心的感性诉求(自身状态、学习困难)和情感变化,很难实现对学生情感需要、情感表达、文化感知等方面的追踪与诊断。课堂教学具有复杂的情境性,同一学生的同一行为在教师的不同教学情境中所表现的意义也是不同的(Boddington, 2020)。若仅仅以技术理性为评价原则,不仅无法延续学校独有的人文情感氛围,甚至会破坏以人文情感为基础的学校秩序。
(二)智能评价数据挖掘违反信息道德界限
内在主义期盼从源头解决技术伴生的伦理问题。智能评价若在数据挖掘这一初始环节已违反信息道德的界限,那么之后评价结果的意义也变得不重要。教学评价智能化转型的过程离不开数据采集、分类、分析等一系列数据挖掘环节,但数智化时代数据获取的渠道多样且标准不一,而且基于网络爬虫、神经网络、文本分类等技术的数据挖掘本身并非完美,师生等教育主体的隐私信息可能在数据挖掘过程中面临安全隐患与利益受损等风险。一方面,智能算法运行需建立在海量数据上才能够发挥其特殊的技术价值,但无处不在的数据收集容易侵犯师生个人隐私并违反最初的数据收集标准。有学者表示,教学评价中为判定学习者行为、面部表情与个体内在情感之间的关系所采集的海量数据,已严重侵犯教育主体隐私安全(Berendt et al., 2020)。如当师生在教育网站或APP登录注册时,其个人的姓名、年龄、身份证号码就已经有被泄露的风险。另一方面,数据保护法缺失导致社会群体对数据拥有权、访问权和迁移权等的界定模糊和信息主体自身权利受侵害(苗逢春, 2022)。校园和教室里随处可见的监控设备、多功能的智能识别系统等工具,虽可实现学生行为、教师授课等方面的过程化监测,但没有相应的道德与法规对技术使用进行约束,教育数据资产归属、安全事故问责等众多伦理问题难以厘清。一旦学校数据监管体系出现纰漏,相关隐私信息可能会被非法人士出于商业利益进行违规窃取与买卖,进而破坏信息道德边界,造成社会群体信息恐慌。
(三)智能评价算法偏误破坏教学决策质量与公平
内在主义强调将伦理的职责从外在的“监督”转变为内在的“介入”,也就是要对智能教学评价依托的算法进行相应的伦理约束。算法的功能发挥受开发者自身技术水平以及智能系统内部的不完善性所限制,智能评价算法运行所依赖的教育数据质量若难以保障极易导致算法的设计与执行层面伴生相应的技术风险(如“统计偏差”“算法歧视”),继而破坏教学决策的质量与公平。一方面,智能评价算法偏误会影响教学决策的质量。智能评价算法的运行过程包括数据输入、数据编码、数据处理、数据输出几方面,但在数据的处理过程中存在难以预知的情况,无法保证算法处理结果的准确性。同时,人工智能本身无法处理一些复杂的情境问题(Morley et al., 2021),智能算法偏误破坏教学决策质量与公平的现象并不少见。另一方面,智能评价算法偏误会破坏教学决策的公平性,具体表现在智能算法可能以非公平的数据处理样态将部分数据集进行机器过滤。在对数据进行筛选处理时,算法模型会优先选择易于处理的数据(学生成绩、活动评分),摒弃一些不易衡量的数据信息(学生个体情感发展、意识感受),进而造成评价结果的片面与偏误,阻碍教师对学生成长状态的精准分析。此外,智能评价算法偏误的根本原因是人工智能系统中存在的歧视和偏见,在教学评价智能化转型的过程中,教学评价势必会和人工智能齐头并进,若不对算法系统进行控制很难真正做到评价公平,更不必谈教育公平了。
(四)智能化教学评价活动偏离人本伦理轨道
人与技术、人与自然均是共生共荣的关系,教学评价的智能化转型需要人工智能的加持。虽然人工智能为教学评价智能化转型提供了技术便利,但教学评价活动的核心仍是师生和生生之间的互动与协作。在使用人工智能技术支持教学评价活动的过程中,仍需考虑其给师生权益带来的帮助与风险。因此,从评价活动的设计到具体的执行都应审慎思考评价活动本身与智能技术之间的伦理规约,避免智能化教学评价活动偏离人本伦理轨道。具体来说,一方面,智能化教学评价活动过于重视科学主义思想,违背教学评价中以人为本的思想。许多工程师与开发人员并没有系统接受过有关道德问题的教育,甚至在许多情况下他们相信速度就是一切,跳过对评价的道德考虑(Hagendorff, 2020)。继而在数据挖掘与使用的过程中,教育决策者自身所做出的价值判断、假设与预测都极易被强烈的科学主义所掩盖。对于技术的过度依赖与信任在某种程度上会削弱教育决策者本身的思维判断能力与观察预测能力。教师若完全根据数据分析结果对学生进行评价,则很容易忽视被评价主体自身的认知与感受,违背教育评价的原本意图。另一方面,智能化教学评价活动过于重视“好坏”“正误”判断,极易偏离以人为本的伦理轨道。人工智能技术可对教学过程数据进行高效整理归纳,然而并非所有数据都可以得到有效度量(钱小龙 等, 2021),若过多依靠程序化、数值化的智能化评价活动特质,忽视教育教学中学生突发情况等方面的个体情感需求、细微情绪变化与心理波动,极易对学生身心发展规律与节奏造成破坏,进而导致教学评价活动的育人价值消逝。此外,智能评价对教学活动中的各种判断均依据其评价规则开展。但教学活动中并不是所有问题都有答案。过于看重智能评价给出的分析结果,容易陷入“数据至上”的漩涡,偏离人本伦理轨道。
四、
内在主义视角下教学评价智能化转型的技术伦理规约路向
综上所述,若缺乏对教学评价智能化转型过程中伦理风险的关注与省思,教学评价的智能化转型将沦为虚晃。因此,面对上述教学评价智能化转型的伦理风险,基于内在主义技术伦理视角,本研究从以下四个方面提出教学评价智能化转型的伦理风险纾解路向。
(一)关注人文情感与技术理性的结合,树立需求本位的人机关系准则
如格物斯坦所述,人工智能教育的本质就是紧密围绕智能时代人的生命发展,注重师生真实鲜活的情感体验。要在“创技”中“生情”、在“生情”中“成人”,以情感力量滋养人工智能技术融入教学评价的生命力。面对人工智能应用于教学评价过程中带来的边界僭越问题,学校领导和教师应关注人文情感与技术理性的结合,树立需求本位的人机关系准则,发挥教学评价智能化转型的最大价值。一方面,学校管理者与教师应避免盲目的技术依赖,树立需求本位的人机关系准则。对于学校领导和教师而言,应先了解如何利用好技术、技术是如何改变教师和学习者的互动等基本问题(Collins & Halverson, 2010),由此才能深刻理解技术应用于教学中的优势与边界所在,合理地根据教学需求使用技术。在教学评价中,学校管理者应遵循“循证思维”与“人文关怀”相结合的原则,既要根据数据评价结果对教学工作做出合理的判断,也应切实关怀师生主体在精神成长、心理健康、情绪情感等方面的需求变化。另一方面,管理者、教师等在使用智能化评价系统时应秉承“人文机智”这一核心要素,关注人文情感与技术理性的有效结合。在开展教学评价时,评价者可依托人工智能技术对学生学习行为数据进行智能感知与监测,但由于人工智能尚不具备温情且柔性的评价反馈功能,因此管理者、教师应根据智能评价分析结果,从学生的心理接受能力、情感状态等方面出发,温情反馈学生阶段性学业成长状态并制定个性化学习计划。
(二)实现有道德的算法设计与优化,合理保障师生教育自由与隐私安全
内在主义强调将道德元素嵌入算法,实现有道德的算法设计。算法是数智化教学评价运行的基础,若未对其进行及时的预测与监控,所带来的风险是无法估量的。鉴于此,需将道德程序注入算法,在数据挖掘过程中合理保障师生的隐私安全。具体来说,一是应加强对学校技术使用人员的安全意识教育,使其明确自身肩负的责任,围绕学生层、课堂层、教师层、学校层,做好层层嵌套的教育数据管理,以防师生个人隐私数据泄露。可开设信息安全讲座、信息安全防范培训课程等,提高教师等人的信息安全素养。二是构建系统化的智能算法保密与问责机制,设置教育数据安全保障系统。应明确界定与维护教育数据生成者与提供者的数据权利,尊重教育数据生成者与提供者的数据人格权与财产权(赵磊磊 & 陈祥梅, 2022)。对于明显会侵犯师生个人隐私权利的信息应及时告知师生本人,并对较为私密的信息设置加密系统,完善教育数据挖掘与质量保障机制,致力于消解教育数据失真、过度挖掘个人信息、师生隐私泄露等伦理风险。三是对数据挖掘算法编码道德规范,使其形成道德自觉。人工智能伦理问题的解决需要采取切实行动,在实践中应用伦理要求(Hickok, 2021)。学校、技术开发商等可以组织相关人员成立算法设计优化小组,将智能评价算法需接受的道德规范转为代码,合理植入学校的智能评价系统中。同时,有必要基于智能算法在动态信息采集与可视化呈现等方面的技术优势,对违背道德的智能评价行为进行及时排查与预警,并进行一定的决策干预与行为问责。
(三)聚焦智能技术蕴含的积极伦理,增强对智能评价算法的动态监测
内在主义技术伦理除强调伦理本身的意义之外,更关注技术对伦理的内在消解作用。面对智能评价算法偏误对教学决策质量与公平造成的破坏,需聚焦智能技术蕴含的积极伦理意义,加强对智能评价算法的动态监测与风险预警,维护教学评价的公平性。具体来说,一是要构建校本化的智能算法监测小组。学校应组织教学评价者、教学评价对象等利益相关者成立智能算法风险监测小组,针对人工智能技术特性与教学评价实际需求,明确划分与规范各小组算法监测的责任与义务,对教学评价过程中智能算法决策偏差风险做出分级评估与预警。二是构建系统化的智能算法矫正系统及其防范机制。针对教学评价过程中出现的算法偏差、算法陷阱、算法缺陷等问题,学校应和技术开发商或第三方教育评价机构开发算法矫正系统,以确保采集数据与分析数据的过程合乎伦理规范。在日常评价开展过程中,可结合“学生发展记录表”等实体参考数据对评价结果进行矫正。三是要构建科学的智能算法问责机制。学校可与第三方教育数据分类评估机构展开合作,依托自然语言处理、自适应系统等技术建立教育数据异常流转与使用的排查机制,在教学评价过程中对异常数据进行排除,避免教育数据分类中的异常因素对评价活动与结果造成负面影响,违背教育决策的公平性。
(四)发挥智能评价的行为影响,构建以人为本的评价伦理秩序
内在主义伦理研究以人为核心,一直都将人的发展置于本体论意义上的地位,使伦理成为服务于人的完善发展和生活幸福的工具。因此,应谨防将师生教育主体价值的提升滞后于人工智能技术的更新迭代,需发挥智能评价的行为影响,构建以人为本的评价伦理秩序。一是要关注智能评价对教育主体的行为影响。智能技术应用于教育教学中的优势应被积极利用起来,可利用智能感知等技术精准采集学习者成长历程中的多维度数据,建立能够清晰表征学习者、教师等人成长状态的数字画像,帮助教师有效预测学生的学习状态并提供有针对性的学习支持。二是要关注教师在教学评价过程中的育人主体价值。智能机器没有人类所拥有的情感、伦理道德等精神元素,终究是冰冷的、无生命的、无伦理归宿的、缺乏同情心和人文价值关怀的(王旦 等, 2021),这可能加剧学生心理压力与心理问题。教师在智能化教学评价过程中不应忽视其所承担的知识体系建构、逻辑意识唤醒、道德品质熏陶等人文关怀工作,要消解智能评价在育人导向方面存在的伦理风险。三是应有效利用智能技术捕捉学生表情与行为变化。应以学生实际感受为中心,引导学生认真理解与反思智能评价结果,教师可通过言语沟通、心理咨询等方式,进一步挖掘智能评价结果背后学生的心理变化规律与特征,始终保有对人的自我实现的关注,发挥人工智能的“赋能”效应(高山冰 & 杨丹, 2022),有效促进学生情感、态度、价值观的正面养成。
五、
结语
随着智能技术的不断升级,教学评价智能化转型有其相应的时代价值,也为教育教学发展提供了新的空间与机遇。智能技术在教学评价中的应用存在一定的风险与不确定性,教学评价智能化转型的过程应被纳入伦理考量视角。内在主义技术伦理对人工智能技术应用的规约与边界提出全新要求,不仅关注技术源头出现的伦理问题,还强调将伦理规约嵌入评价活动范围中进行内生约束,始终以积极的视角审视技术与伦理的发展问题,以技术进步促进伦理意识提升,以伦理完善技术发展,这一视角对审视教学评价智能化转型过程中相应的伦理问题具有一定的现实意义与理论突破。据此,本研究提出内在主义视角下教学评价智能化转型所带来的伦理风险表征与纾解路向,是对人工智能时代教学评价风险化解的有效回应。在未来人工智能应用于教学评价的过程中,如何推动智能技术发挥更佳的育人功效,借力技术发展从根源上解决相应的伦理问题,建设技术伦理与教育环境和谐共生的伦理生态,值得学者们进一步深入研究。
参考文献
向上滑动阅览
高山冰,& 杨丹. (2022). 人工智能教育应用的伦理风险及其应对研究. 高教探索(1),45-50.
胡钦太,伍文燕,冯广,潘庭锋,陈卓,& 邱凯星. (2021). 人工智能时代高等教育教学评价的关键技术与实践. 开放教育研究(5),15-23.
教育部. (2021-12-08). 2021国际人工智能与教育会议举行. 中华人民共和国教育部网站. http://www.moe.gov.cn/jyb_xwfb/gzdt_gzdt/moe_1485/202112/t20211208_585822.html
苗逢春. (2022). 教育人工智能伦理的解析与治理——《人工智能伦理问题建议书》的教育解读. 中国电化教育(6),22-36.
钱小龙,张奕潇,宋子昀,& 李强. (2021). 教育人工智能系统的伦理原则与困境突破. 江南大学学报(人文社会科学版)(6),96-104.
王旦,张熙,& 侯浩翔. (2021). 智能时代的教育伦理风险及应然向度. 教育研究与实验(4),34-39,96.
吴立宝,曹雅楠,& 曹一鸣. (2021). 人工智能赋能课堂教学评价改革与技术实现的框架构建. 中国电化教育(5),94-101.
谢幼如,邱艺,& 刘亚纯. (2021). 人工智能赋能课堂变革的探究. 中国电化教育(9),72-78.
袁磊,张淑鑫,雷敏,覃颖,& 张文超. (2021). 技术赋能教育高质量发展:人工智能、区块链和机器人应用前沿. 开放教育研究(4),4-16.
张生,王雪,& 齐媛. (2021). 人工智能赋能教育评价:“学评融合”新理念及核心要素. 中国远程教育(2),1-8,16,76.
张卫. (2018). 藏礼于器:内在主义技术伦理的中国路径. 大连理工大学学报(社会科学版)(3),116-121.
张卫. (2021). 人工智能伦理的两种进路及其关系. 云南社会科学(5),21-27,185.
张卫. (2022). 内在主义视域下的道德增强及其争议. 伦理学研究(1),106-112.
赵磊磊,& 陈祥梅. (2022). 数智时代教育大数据风险:表征样态与化解路向. 贵州师范大学学报(社会科学版)(2),72-82.
中共中央 国务院. (2020-10-13). 中共中央 国务院印发《深化新时代教育评价改革总体方案》. 中华人民共和国中央人民政府网站.http://www.gov.cn/zhengce/2020-10/13/content_5551032.htm
Boddington P. (2020). The Ethics of AI and The Moral Responsibility of Philosophers. The Philosophers’ Magazine, (89): 62-68.
Berendt B, Littlejohn A, & Blakemore M. (2020). AI in education: learner choice and fundamental rights. Learning, Media and Technology, 45(3): 312-324.
Collins A, & Halverson R. (2010). The second educational revolution: Rethinking education in the age of technology. Journal of computer assisted learning, 26(1): 18-27.
Dignum V. (2018). Ethics in artificial intelligence: introduction to the special issue. Ethics and Information Technology, 20(1): 1-3.
Hagendorff T. (2020). The ethics of AI ethics: An evaluation of guidelines. Minds and Machines, 30(1): 99-120.
Hickok M. (2021). Lessons learned from AI ethics principles for future actions. AI and Ethics, 1(1): 41-47.
Kumar N M S. (2019). Implementation of artificial intelligence in imparting education and evaluating student performance. Journal of Artificial Intelligence, 1(1): 1-9.
Morley, J., Elhalal, A., Garcia, F., Kinsey, L., Mökander, J., & Floridi, L. (2021). Ethics as a service: a pragmatic operationalisation of AI ethics.Minds and Machines,31(2), 239-256.
Owe A, & Baum S D. (2021). Moral consideration of nonhumans in the ethics of artificial intelligence. AI and Ethics, 1(4): 517-528.
The Internalist Ethics of Technology: Considerations for the Intelligent Transformation of Teaching Evaluation
Leilei Zhao, Xinpei Jiang and Ruihua Dai
Abstract: Based on the connotation and logic of the intelligent transformation of teaching evaluation, this paper proposes an internalist technical ethics consideration framework for the intelligent transformation of teaching evaluation from the perspective of internalism technical ethics. That is, the subject of intelligent evaluation should pay attention to the moral cooperation of technology;the technology of intelligent evaluation should pay attention to the design of moral algorithm;the process of intelligent evaluation should follow the fair ethical norms, and the behavior of intelligent evaluation should rely on the ethical order of “human-intelligence”. The study found that from the internal perspective, the existing ethical risk of teaching evaluation intelligent transformation is mainly manifested in the artificial intelligence application overstepping the dignity of the subject of education, intelligent evaluation data mining information violating the moral boundaries, intelligent evaluation algorithm errors damage teaching intelligent decision-making quality and fairness, and teaching evaluation activities deviating from the track of humanistic ethics. Therefore, from the perspective of internalism, this paper puts forward the technical ethics regulation direction of intelligent transformation of teaching evaluation, that is paying attention to the combination of humanistic emotion and technical rationality, establishing. demand-based man-machine relationship criterion, and optimizaing ethical algorithm design to reasonably guarantee the freedom, privacy and security of teachers and students. It is also suggested focusing on the positive ethics of intelligent technology and enhancing the dynamic monitoring of intelligent evaluation algorithms, as well as harnessing behavioral impact of intelligent evaluation and constructing a human-centered evaluation ethical order.
Keywords: internalism;artificial intelligence;teaching evaluation;intelligent transformation;technical ethics;people oriented;ethical risk;conventional direction
作者简介
赵磊磊,江南大学教育学院副教授。
蒋馨培,江南大学教育学院硕士研究生(通讯作者:1317490976@qq.com)。
代蕊华,华东师范大学教育学部教授。
基金项目:本文系中国儿童中心儿童人工智能教育研究院2022年度课题“小学教师智能教育素养评价与培育机制研究”(项目编号:CNCCYJY202202)的研究成果。
责任编辑:刘莉
2023年第1期目次