查看原文
其他

王一岩等|可解释学习者建模:价值意蕴与应用图景

王一岩 郑永和 现代远程教育研究
2024-09-24
点击上方蓝色文字关注我们


作者简介王一岩,博士研究生,北京师范大学教育学部(北京 100875);郑永和(通讯作者),教授,博士生导师,北京师范大学科学教育研究院院长(北京 100875)。
基金项目科技创新2030—“新一代人工智能”重大项目“面向智慧教育的学习者认知与情感计算研究”子课题“面向学习成效评价的认知与情感计算模型”(2022ZD0117101)。

引用:王一岩,郑永和(2023). 可解释学习者建模:价值意蕴与应用图景[J].现代远程教育研究,35(5):96-103.


摘要:学习者模型的“复杂性”和机器智能决策的“不透明性”,使得可解释学习者建模成为教育人工智能研究的重要议题。可解释学习者建模旨在通过对学习者多维度、多层次、多场景的精准刻画,实现学习者的可表征、可理解、可干预,进而为学习策略、教学模式、教育评价的设计和开展提供科学依据。其核心价值体现在对外在学习行为的准确表征、对学习者潜在特征的深度挖掘、对学习者模型的完整构建以及对学习机理的准确阐释,且在模型构建过程中充分体现出透明度和可解释性,进而增强教育主体对机器智能分析与决策的信任度和接受度。可解释学习者建模能够实现全景化细粒度的教育诊断,提供易于理解和接受的学习干预,推动高度适配且便于实施的教学决策,支持综合化高效能的教育管理,在“人机协同”的教育教学活动中具有广阔的应用前景。未来,还需通过加强多学科理论融合、科学智能方法运用、智能教育产品研发等途径推进可解释学习者建模研究。
关键词:学习者建模;可解释人工智能;可解释学习者建模;人机协同;科学智能



一、问题的提出
以“数据密集型科学”为代表的第四研究范式的快速发展,使得教育研究不再仅依靠“经验驱动”的传统模式,越发重视依靠人工智能技术发挥教育数据的核心价值。然而,智能分析与决策的“黑箱问题”造成了人对机器的“信任危机”,这限制了人工智能教育应用实际效用的发挥。在此背景下,可解释教育人工智能逐渐受到重视,其关注机器如何通过有意义的交互为使用者解释智能决策的缘由与依据,以促进教育系统的可理解、可信任、可管理,已成为智能教育领域的新方向(王萍等,2021)。教育系统中的教师、环境、资源、活动、服务等核心要素均作用于学生,利用人工智能技术对学习者进行建模、分析和刻画是可解释教育人工智能关注的核心话题(卢宇等,2022),有助于了解学生的学业状况和潜在特征,明确智能教育决策的依据和逻辑,进而增强人们对机器决策的信任度和接受度。
可解释的学习者建模对教育人工智能研究提出了极大挑战,其根本原因在于学习者特征具有较高的复杂性,具体表现在:一是“内隐性”,即反映学习者内在属性的知识结构、认知水平、学习态度、学习偏好、学习动机等特征不易通过直接观察得出;二是“层次性”,即学习者深层次的特征无法通过单一的外显表征来呈现,而需要构建层次化的分析模型来进行揭示;三是“生长性”,即学习者的特征会随着学习过程不断变化,对其全面刻画需要反映特征的变化规律及个体的成长历程;四是“关联性”,即学习者的认知和非认知特征之间存在关联,对其关系的挖掘也是学习者建模要解决的关键问题;五是“情境性”,即教育情境要素会对学习者产生作用,明确其对学习者特征的影响有助于揭示学习发生的内在机理。可见,如何准确刻画学习者特征,进而揭示特征要素间的关联和变化规律,是可解释的学习者建模研究需要解决的关键问题。基于此,本文利用可解释人工智能(Explainable Artificial Intelligence,XAI)的方法全方位构建学习者模型,从“数据感知—行为刻画—特征挖掘—模型构建—机理阐释”等多个层面还原学习过程、刻画学生特征、挖掘学习规律,以此实现可解释的教育评价、学习干预和教育决策。
二、相关内涵诠释
1.学习者建模
学习者建模旨在对学习者的知识技能、认知行为、情感体验等特征进行描述、分析并构建相应的数字模型(王小根等,2021),以此实现对学习者的深层次、全方位表征与刻画。基于智能技术的学习者特征挖掘与建模是智能教育研究的重点,也是近年来国家自然科学基金教育信息科学与技术领域(F0701)关注的核心话题(郑永和等,2023)。通过对近年来国内外学习者建模研究的系统梳理,发现该领域的前沿理论和实践研究主要涉及以下三个方面:其一,面向学习者单一特征要素的复杂建模。其主要关注对学习者知识、认知、情感等单一维度特征的复杂建模和精准刻画,例如:利用知识图谱的方法对学习者的知识掌握情况和学科能力水平进行多层次、细粒度、可视化的精准刻画(李艳燕等,2019);利用知识追踪的方法对学习者与学习资源之间的交互过程进行跟踪和建模,以此对学习者的知识水平和认知结构进行精准评估,并对学习者的作答表现进行预测(王志锋等,2021);利用学习者的面部表情、身体姿态、生理指标、话语信息等多模态数据对其情绪状态进行识别,或是对学习者的学习偏好、学习态度、学习风格进行诊断评估;等等。其二,面向学生多特征要素的联合建模以及动态演化的全景化学习者建模。其关注学习者信息的多源整合性、学习发生的情境依存性、学习状态的时序变化性、学习者模型的层次表征性、学习者发展的协同进化性(王一岩等,2021a),既强调利用多模态数据之间的信息互补机制对学习者的外显状态和内隐特征进行精准刻画,同时也注重通过分析特征要素间的相互关联挖掘学习者知识、认知、情感的动态演化机理。其三,基于情境感知的学习者建模。其关注真实教育情境中“人—机—物—环境—活动”等要素对学习者知识建构、认知发展和情绪状态的影响机制,探究学习者深层次的学习动机、学习风格、学习偏好等特征(王一岩等,2022b)。
2.可解释学习者建模
可解释人工智能是以可理解的方式向人类解释并呈现智能系统行为与决策的新一代人工智能,其目标是使用户能够理解和信任机器学习算法所产生的结果和输出(Guidotti et al.,2018)。可解释人工智能意味着人工智能在其操作中是透明的,这样人类就能够理解和信任机器做出的决策,其目标是使人工智能系统具备类人化的解释能力,帮助人类通过动态生成的图表和文字描述理解机器智能决策的逻辑、依据与机制,从而避免人工智能的黑盒模型带来的人对机器的“信任危机”,建立起人与机器之间的信任桥梁。
随着智能教育研究的快速发展和计算教育学研究范式的逐步推进(郑永和等,2020),学界越发强调学习者模型的“可解释性”,旨在通过对学习者多维度、多层次、多场景的精准刻画,实现学习者的可表征、可理解、可干预,进而为学习策略的调整、教学模式的设计、教育评价的开展提供科学有效的参考依据。可解释学习者建模的核心在于:一是构建描述学习者本体特征的教育模型,建立起相关数据表征和学习者特征之间的映射关系并揭示学习者特征间的关联;二是对教育情境和学习者特征之间的因果关系进行分析,明确哪些外部因素会对学习者的学习产生影响,以揭示学习发生的内在机理;三是利用可解释的方式将机器智能决策的依据和逻辑呈现给学习者、教师和管理者,增加其对机器智能决策的信任度。
可解释学习者建模的“可解释性”主要体现在以下两个层面:其一,学习者分析与建模的可解释性,即关注学习者本体特征刻画及其模型构建的可解释性,旨在构建学习者本体和客观数据模型之间的桥梁,通过建立合理完善的结构模型和指标体系来表征学习者特征,进而为教育评价的开展、教育规律的挖掘、教育干预的实施提供参照依据。学习者分析与建模的可解释性主张利用学业测评数据、心理测评数据、学习行为数据、生理指标数据、人机交互数据、学习情境数据来表征学习过程和刻画学生状态,并利用知识追踪、情感计算、时间序列分析、关联规则挖掘等技术来分析学习者特征和探究学习机理,进而构建基于“数据感知—行为刻画—特征挖掘—模型构建—机理阐释”的层次化分析模型,从多个维度、多个层次来还原学习者的本体特征,帮助利益相关者了解学习者内在的认知结构和心理偏好,以此为学习策略的修正、教学模式的优化、教育治理的改善提供可靠保障。其二,学习诊断与干预的可解释性,即关注学习者学情诊断与教学干预的可解释性,旨在利用易于理解的方式呈现机器智能决策的逻辑和依据。传统教育人工智能在对学生学习进行诊断与干预时,大多直接呈现解决方案与策略,但忽视了“算法黑箱”造成的“信任危机”。学习诊断与干预的可解释性主张在利用智能技术进行学业诊断和学习干预时,能够通过图表或文字描述的方式帮助学生、教师和管理者理解机器决策的内在缘由,以及相关决策可能产生的效果,进而增强教育主体对机器的信任度。
三、可解释学习者建模的价值意蕴
要实现人工智能与教育教学的深度融合,提升机器智能决策的透明度和可解释性是关键所在,这不仅关系到教育主体对决策结果的理解和接受程度,也影响到其对教育人工智能应用的采纳意愿。就可解释学习者建模而言,其核心价值体现在对外在学习行为的准确表征、对学习者潜在特征的深度挖掘、对学习者模型的完整构建以及对学习机理的准确阐释,并且在模型构建过程中要充分体现出透明度和可解释性。为便于理解可解释学习者建模如何在构建过程中体现其核心价值,本文提出了基于“数据感知—行为分析—特征挖掘—模型构建—机理阐释”的层次化概念模型(如图1所示),并以此对建模各阶段中需要达成的价值目标进行阐释。
图1 可解释学习者建模的层次化概念模型
1.学习行为的可解释性:从学习数据感知到学习行为表征
学习行为的可解释性主要致力于呈现复杂非线性模型内在的计算逻辑,建立客观数据表征和学习行为特征之间的映射关系,对学习者的学习行为进行智能感知和精准刻画。近年来学界愈发注重利用多模态数据来表征学习行为和学习状态(王一岩等,2022a),依靠多模态数据之间的信息互补机制来提升数据分析的成效、挖掘学习者的潜在特征(王一岩等,2021b)。例如,基于卷积神经网络和决策级融合的方法构建多模态学习情感计算模型,利用面部表情和身体姿态数据对学习者的开心、困惑、平静、厌倦四种情绪状态进行识别(翟雪松等,2022)。也有学者关注可解释人工智能技术在学习者行为刻画和状态表征层面的应用,例如,Rathod等(2022)创建了一个面向7~10岁儿童的面部表情数据库用于在线学习中的学生情绪识别,采用三种可解释人工智能算法(Grad-CAM、Grad-CAM++和ScoreGrad)解释情绪识别的依据和预测情绪的关键特征,并通过热图的方式对嘴唇、眼睛、眉毛等表情特征对于情绪表征的贡献程度进行可视化展示,以提高在线学习当中情绪识别的精准度。学习行为的可解释性需要建立数据感知和行为表征间的映射关系,通过对算法模型计算过程的呈现来解释所采集的特征指标数据与学习者行为和学习状态之间的关联,从而便于利益相关者理解学习者的学习行为和学习状态。当然,从研究内容来看,对算法模型计算过程的呈现更多的是计算机领域学者关注的问题,教育领域的研究者则需要将注意力放在描述学习行为的特征指标上,关注如何以更易于理解的方式呈现特征指标与学习行为分析结果的对应关系,并以此来为学习机理的挖掘和干预措施的制定提供有效支撑。
2.学习者特征的可解释性:从外显行为表征到潜在特征挖掘
学习者特征的可解释性主要致力于挖掘学习者外显行为和潜在特征之间的关联关系,以此来对学习者复杂的认知结构进行表征。笔者认为,不能将学习行为直接作为学习者模型的要素之一,原因在于学习行为是学习者知识技能、认知行为和情感体验等潜在心理特征的外显表征,学习行为和知识、认知、情感要素之间具有复杂的内在联系,在对学习者特征进行刻画的过程中,如果既关注学习者外显的行为表征,也关注学习者内在的隐性特征,则将极大地增加学习者建模的复杂度(王一岩等,2022b)。因此,在可解释学习者建模研究中,更多是将外显行为作为学习者模型的观测点,以学习者的外显行为来反映其潜在的认知和非认知特征。相关研究主要关注以下三个方面:一是基于多维度的学习行为表征来获取学习者的隐含特征,并以此来解释学业表现与学习行为之间的关联。例如,胡钦太等(2021)采用深度学习算法提取学习者的浅层次学习行为特征,而后利用HDRBM神经网络分析其隐含特征,在此基础上采用贝叶斯因果分析法解释学习行为对成绩的影响。二是利用知识追踪的方法对学生考试、作业等测评数据进行时序性、动态化的挖掘分析来反映其内在的知识结构和认知水平。例如,Nakagawa等(2019)将课程作业的图结构关系纳入知识追踪模型,并构建了基于图神经网络的深度知识追踪模型,研究结果表明,该方法可以提高对学生成绩的预测效果,且具有较高的可解释性。三是利用学习者的面部表情、身体姿态、生理信息、话语信息等对其在学习过程中的情绪状态进行识别,并对与学业情绪相关的学习偏好、学习态度、学习动机等深层次特征进行深入的挖掘分析(王一岩等,2021a)。从外显行为表征到内隐特征的挖掘是可解释学习者建模的核心,通过利用可解释人工智能的方法对学习者外显行为进行分析以揭示其潜在特征,能够帮助教师更好地理解学习者行为表现背后反映出的个体特点和差异,这往往是因材施教得以有效实施的前提。
3.学习者模型的可解释性:从单一特征刻画到完整个体建模
学习者模型的可解释性致力于探究潜在特征要素之间的关联关系,关注学习者知识、认知、情感等特征之间的协同演化机制。从学习者建模的研究现状来看,大多研究主要是对知识结构、认知水平、情感状态等单一特征的建模分析,或是通过多模态的数据感知与建模方法对学习者某个维度特征进行刻画。然而,个体的发展并非单向度的,其认知与非认知特征之间具有一定的关联。认知心理学相关研究也表明,情绪可以发动、干涉、组织或破坏认知过程和行为,认知对事物的评价则可以发动、转移或改变情绪反应和体验。由此可见,要想全方位刻画学习者的潜在特征、挖掘学习者的成长规律,除了对学习者的认知和非认知特征进行多层次、长周期、动态性的建模分析外,还需要重视学习者认知和非认知特征的协同建模和演化分析,挖掘其相互作用机理与动态变化过程,构建易于理解的“联合模型”,并合理解释各类特征之间的作用规律。因此,如何实现从单一特征的刻画到完整个体的复杂建模,并对其中的蕴含的潜在机理进行科学解释,是可解释学习者建模需要达成的另一个价值目标。Mangaroska等(2022)关于编程教学中学习者认知和情感的作用机制的研究是此方面的代表性案例,该研究采用脑电、眼动、面部表情和编程日志等多模态数据来表征学习者的认知和情感特征,建模分析结果表明,注意力、收敛思维等认知特征和挫败感等非认知特征与学业表现正相关。从目前来看,关于学习者认知和非认知特征协同演化机制的研究仍然较少(Noroozi et al.,2020),是未来可解释学习者建模研究需要关注的重要方向。
4.学习机理的可解释性:从学习者模型构建到学习机理阐释
学习机理的可解释性致力于分析外在的情境要素对学习者知识、认知、情感的作用机制,挖掘教育情境对学习者个体发展的影响机制,以此揭示深层次的教育规律。从近年来学习科学领域的相关研究来看,主要通过对特定教育情境下教师教学行为、教学内容、教学资源、教学环境、教学服务、教学活动等要素的刻画,来揭示“人—机—物—环境—活动”等教育情境要素对学生知识建构、认知发展和情绪状态的影响机制,以此探究学习发生的内在机理(王一岩等,2021c)。其核心要点在于解释什么样的教育情境更有助于学生知识、认知、情感的发展,进而揭示外界环境对个体学习过程和学习结果的影响机理。例如:杨九民等(2020)采用眼动追踪、学业测评和问卷测量的方法,探究视频学习中教师形象、目光、手势对于学生学习效果和学习体验的影响机制;王雪等(2020)使用问卷测量、眼动仪和脑波仪的方法,探究教学视频的视听觉情绪设计对学习者的情绪、认知加工过程、认知负荷与学习效果的影响机制。未来,如何探究教育情境要素与学习者特征之间的动态映射关系,实现学习者特征与教育情境的智能匹配和动态调整,挖掘深层次的教育规律,进而为教育情境的优化设计提供依据,是可解释学习者建模需要长期关注并解决的核心问题。但在此方面仅有部分学者分析了教育情境和学习者特征的关键维度,提出了“基于情境感知的学习者建模”的实践框架(王一岩等,2022b;Huang et al.,2017),还没有更为深入的技术实践研究。究其原因,主要是对教育情境的全面感知实现难度较大,教育情境与学习者特征间的关联关系又较为复杂,国家虽然在部署教育环境智能计算相关的研究项目,但目前尚未有系统化的解决方案。
四、可解释学习者建模的应用图景
随着各类智能教育产品的逐渐成熟和多源异构教育数据的逐步积累,在教育教学活动中通过“人机协同”的方式实现人和机器的智能交互、协同工作、对话协商和共同决策已成为趋势。在此背景下,可解释学习者建模能够增强教育主体对机器智能分析与决策的信任度和接受度,在人机协同模式下的学习、教学和管理活动中具有广阔的应用前景。
1.个体层面:实现全景化细粒度的教育诊断
对于人工智能教育应用而言,需要在提升学习分析与诊断精准度的同时,加强对分析诊断结果的解释和说明,以帮助学习者易于理解和接受机器的智能决策。可解释学习者建模在个体层面的应用主要体现在对教育诊断的全景化、细粒度呈现上,具体包括两个方面:其一,利用学习分析仪表盘等方式(如知识图谱、雷达图、折线图等)对学习者的知识结构、认知水平、学科能力、学习态度、学习风格等特征进行可视化呈现,并对其学业表现进行精准预测,帮助学习者更加清晰地了解自身学习状况。比如利用学科知识图谱的形式对知识点之间的层次和关联进行呈现,根据学习者的学情诊断结果对其知识掌握情况进行评判,并在知识图谱中用不同的颜色进行标识,利用此种方式帮助学习者了解自身的知识薄弱点,并及时调整学习计划和学习策略。其二,利用图表和文字说明的形式,对机器智能诊断的逻辑、过程和目的进行清晰说明,帮助学习者了解智能决策的依据,从而提升其接受教育诊断结果的意愿。例如,Conati等(2021)开发的智能导师系统ACSP,利用可解释人工智能的方法对学业问题的成因进行分析,并通过可视化的界面来呈现学业成绩的计算规则、判断理由和预测机制,以此来保证学习者对系统的信任度,提升学习者对系统有用性的感知;Chen等(2022)提出了一种可解释的学生表现预测智能分析框架,基于学生在虚拟学习环境中的学习活动数据,利用混合神经网络模型对其学业表现进行分析与预测,并通过可视化和分析典型预测、学生活动图和特征重要性的方式来提升预测结果的可解释性。
2.学习层面:提供易理解可接受的学习干预
在以往的人机协同学习过程中,人工智能教育应用对于学习者学习的干预,主要通过对其知识结构、认知水平、学习偏好的挖掘分析,实现学习者模型和学习资源之间的智能适配,以此为学习者提供个性化的资源推荐和学习路径规划服务,帮助其实现个性化、自适应的学习。此种学习干预模式一方面容易造成学习者对于智能学习服务不加辨别的盲从,另一方面也容易导致学习者对智能学习服务的质疑和不信任,甚至产生“算法厌恶”。因此,无论是向学习者推荐个性化的学习资源、学习路径、学习活动,还是为其提供自适应的学习支架和学习改进策略,都应该对相关干预措施进行充分的解释说明,以此来提升学习者对人工智能教育应用的信任度和使用意愿,从而增加其采纳学习干预策略的可能性。例如,Barria-Pineda等(2021)设计了具有视觉解释和文本解释功能的智能学习系统,利用视觉解释的方式让学习者了解参与活动或解决问题所需要的概念,利用文本解释的方式为学习者推荐学习活动,以此来增强学习者对智能学习系统所做出的学习干预策略的理解度和信任度;Afzaal 等(2021)采用学习分析技术和可解释机器学习方法对学习者的学业表现进行预测和原因解释,并通过学习分析仪表盘的方式为其提供学习改进建议,帮助学生进行自我调节学习。
3.教学层面:推动高适配可实施的教学决策
在智能技术与教育教学深度融合的时代背景下,人机协同教学逐渐成为引领智能时代教学模式变革的核心思想,但机器智能决策的“不透明性”往往容易造成教师难以基于对机器生成的教学决策的充分理解去有针对性地制定便于实施的教学方案。因此,可解释学习者建模在教学层面改进人机协同教学的应用需聚焦两个方面:一是通过对学习者的学业状况和个体特征的全面分析和可视化呈现,为教师提供便于实施的针对性教学改进建议;二是向教师充分解释生成相关教学决策背后的原因,以及执行相关决策后能在哪些方面、何种程度上提升学习表现和结果。例如,Ledeboer等(2019)基于荷兰中学智能教学系统中的数据,利用随机森林和前馈神经网络等方法构建了预测学生留级率和毕业率的模型,并通过全局解释和局部解释的方式将分析结果呈现给教师,为教师教学决策的改进提供有效支持;Pereira等(2021)利用学生在编程学习中的学习日志数据来预测其学业表现,并利用基于博弈论的可解释人工智能分析框架SHAP(Lundberg et al.,2017)实现对预测模型决策机制的全局和局部解释和呈现,帮助教师对编程学习的教学策略进行改进和优化。
4.管理层面:助力综合化高效能的教育管理
人机协同教育治理是实现教育治理现代化的必然路向,旨在将治理主体从自然人扩展到智能机器,通过人机交互、优势互补、高效合作,变革教育治理主体的结构与关系,提升教育治理效能(陈星等,2022)。可解释学习者建模在管理层面的应用主要是通过对学习者家庭背景、学业状况、智力水平、身体健康等数据的智能采集与汇聚,构建面向区域层面的教育“数据大脑”,具体包括三个方面:其一,利用统计分析和数据可视化的方法为管理者直观呈现区域内学生的整体发展状况,包括学业水平、智力水平、体质健康、竞赛获奖情况,等等;其二,利用数据挖掘的方法对影响学生学业发展和素养养成的核心要素进行分析,明确哪些要素会对教育质量产生何种影响,以及其中的内在逻辑;其三,通过对学生数据的智能分析,利用数据模拟的方法构建相应的预测模型,对未来一段时间内区域教育的发展水平进行模拟与预测,制定智能化的应对措施对教育发展的潜在风险进行干预和防控,并通过图表和文字的方式解释措施制定的内在原因。例如,Yakunin等(2019)基于哈萨克斯坦国家教育数据库中两万多所中学的数据,构建学校教育质量的预测模型,利用局部解释的方式呈现地理位置、学校设施、人口组成、教职工特征与学生成绩和大学录取率的关系,进而为国家教育政策的制定提供可行建议。
五、可解释学习者建模的研究展望
总体而言,可解释学习者建模对于还原教育过程、刻画学生特征、揭示学习机理、优化教育决策具有重要意义。然而,当前可解释学习者建模的相关研究仍处于起步阶段,要真正推动其在教育教学实践中的落地,还需要在明确可解释学习者建模核心价值的基础上,加强建模理论研究、分析方法创新和实践应用探索。
1.推动多学科交叉的可解释学习者建模理论研究
可解释学习者建模是可解释教育人工智能研究的核心,旨在打破人工智能的“算法黑箱”,提升机器智能分析与决策的“透明度”,破除教育主体对机器的“信任危机”,实现学习者的可表征、可理解、可干预,从而为教育的数字化转型和智能化变革提供有效支持。但从目前来看,其在相关建模理论上的研究仍有待加强:一方面,由于对学习者特征的认知存在偏差,对影响学业发展的核心要素及相关特征之间的关系认识不清晰,往往造成对学习者特征难以准确把握和精准刻画;另一方面,由于学习者个体的复杂性和特征的多样性,单一学科的理论难以支撑学习者建模的现实需要,有必要综合多学科的理论来实现对复杂学习现象的深入诠释。因此,未来需要在加强人工智能技术方法和标准规范研制的基础上,利用教育学、心理学、认知科学、脑科学、系统科学等领域的相关理论对真实情境下的学习过程进行深入分析,从“行为—生理—心理—神经”等多个层次还原学习者的本质特征,更加准确和清晰地揭示学习发生的内在机理,从而为学习干预、教学改进、教育评价、教育管理等实践问题提供可解释的解决方案。
2.强化基于科学智能的可解释学习者建模方法研究
可解释学习者建模遵循“指标设计—数据感知—特征刻画—模型构建—机理探究”的研究路线,主要依赖教育专家从实践经验出发确定需要收集的学习者数据,并基于此进行智能化的分析和建模,从而建立“数据模型”和“客观世界”之间的桥梁。然而,此种方法从根本上还是遵循教育经验来进行学习者模型的建模和分析,无法脱离研究者自身思维和认知的局限性。当前人工智能领域提出“AI for Science”的概念,即科学智能,旨在让AI帮助人类在海量的数据中迅速找到规律,构建起模型与数据双向驱动的研究范式,再通过人类的介入对AI分析结果中的谬误进行甄别,并从中筛选出真正有实践价值和推广意义的规律,从而推动科学的发展。未来可解释学习者建模研究可以参照科学智能的思想,让人工智能帮助研究者分析学习者数据、提取学习者特征、构建学习者模型并挖掘其中蕴含的规律,之后再由研究者对分析结果进行鉴别和甄选,以此推动可解释学习者建模的科学化、智能化发展。
3.加强基于智能产品的可解释学习者建模实践研究
可解释学习者建模的应用需要通过智能教育产品来实现,其基于学习者模型提供精准化的学业问题解决方案,能够在很大程度上提升教育服务供给能力,促进教育规模化和个性化的协调统一(王一岩等,2021d)。然而,个体对机器决策的“信任危机”也成为阻碍智能教育产品推广的壁垒,这一问题的解决在很大程度上取决于是否能让学生、教师和管理者充分理解、接受并采纳智能分析与决策。因此,未来智能教育产品的研发除了需要强化分析与决策的精准度外,还需要加强智能分析、诊断与干预的“可解释性”,来帮助利益相关者充分理解智能决策的逻辑和依据,增强对智能教育产品的信任度,以此来保证智能技术教育应用的有效落地,推动智能技术与教育教学的深度融合。
    

参考文献:

[1]陈星,吴叶林(2022).人机协同教育治理的障碍与突破[J].现代远程教育研究,34(1):40-47.

[2]胡钦太,伍文燕,冯广等(2021).深度学习支持下多模态学习行为可解释性分析研究[J].电化教育研究,42(11):77-83.

[3]李艳燕,张香玲,李新等(2019).面向智慧教育的学科知识图谱构建与创新应用[J].电化教育研究,40(8):60-69.

[4]卢宇,章志,王德亮等(2022).可解释人工智能在教育中的应用模式研究[J].中国电化教育, (8):9-15,23.

[5]王萍,田小勇,孙侨羽(2021).可解释教育人工智能研究:系统框架、应用价值与案例分析[J].远程教育杂志,39(6):20-29.

[6]王小根,吕佳琳(2021).从学习者模型到学习者孪生体——学习者建模研究综述[J].远程教育杂志,39(2):53-62.

[7]王雪,韩美琪,高泽红等(2020).教学视频中视听觉情绪设计的作用机制与优化策略研究[J].远程教育杂志,38(6):50-61.

[8]王一岩,刘士玉,郑永和(2021a).智能时代的学习者情绪感知:内涵、现状与趋势[J].远程教育杂志,39(2):34-43.

[9]王一岩,王杨春晓,郑永和(2021b).多模态学习分析:“多模态”驱动的智能教育研究新趋向[J].中国电化教育,(3):88-96.

[10]王一岩,郑永和(2021c).面向智慧课堂的教育情境感知:价值定位、特征模型与实践框架[J].电化教育研究,42(11):84-91.

[11]王一岩,郑永和(2021d).智能教育产品:构筑基于AIoT的智慧教育新生态[J].开放教育研究,27(6):15-23.

[12]王一岩,郑永和(2022a).多模态数据融合:破解智能教育关键问题的核心驱动力[J].现代远程教育研究,34(2):93-102.

[13]王一岩,郑永和(2022b).基于情境感知的学习者建模:内涵、特征模型与实践框架[J].远程教育杂志,40(2):66-74.

[14]王志锋,熊莎莎,左明章等(2021).智慧教育视域下的知识追踪:现状、框架及趋势[J].远程教育杂志,39(5):45-54.

[15]杨九民,皮忠玲,章仪等(2020).教学视频中教师目光作用:基于眼动的证据[J].中国电化教育,(9):22-29.

[16]翟雪松,许家奇,王永固(2022).在线教育中的学习情感计算研究——基于多源数据融合视角[J].华东师范大学学报(教育科学版),40(9):32-44.

[17]郑永和,王一岩,吴国政等(2023).教育信息科学与技术研究的现实图景与发展路向 ——2018—2022年F0701资助情况分析[J].现代远程教育研究,35(1):10-19.

[18]郑永和,严晓梅,王晶莹等(2020).计算教育学论纲:立场、范式与体系[J].华东师范大学学报(教育科学版),38(6):1-19.

[19]Afzaal, M., Nouri, J., & Zia, A. et al. (2021). Explainable AI for Data-Driven Feedback and Intelligent Action Recommendations to Support Students Self-Regulation[J]. Frontiers in Artificial Intelligence, 4:723447.

[20]Barria-Pineda, J., Akhuseyinoglu, K., & Želem-Ćelap, S. et al. (2021). Explainable Recommendations in a Personalized Programming Practice System[C]// Proceedings of the 22nd International Conference on Artificial Intelligence in Education. Utrecht, The Netherlands: Springer:64-76.

[21]Chen, H.-C., Prasetyo, E., & Tseng, S.-S. et al. (2022).Week-Wise Student Performance Early Prediction in Virtual Learning Environment Using a Deep Explainable Artificial Intelligence[J]. Applied Sciences, 12(4):1885.

[22]Conati, C., Barral, O., & Putnam, V. et al. (2021). Toward Personalized XAI: A Case Study in Intelligent Tutoring Systems[J]. Artificial Intelligence, 298:103503.

[23]Guidotti, R., Monreale, A., & Ruggieri, S. et al. (2018). A Survey of Methods for Explaining Black Box Models[J]. ACM Computing Surveys, 51(5):1-42.

[24]Huang, S., Yin, B., & Liu, M. (2017). Research on Individualized Learner Model Based on Context-Awareness[C]// Proceedings of the 2017 International Symposium on Educational Technology (ISET). Hong Kong, China: IEEE:163-167.

[25]Ledeboer, T. S. (2019). Interpretable Student Performance Prediction: A Case Study in Dutch Secondary Education[D]. Eindhoven: Eindhoven University of Technology:iii.

[26]Lundberg, S. M., & Lee, S. I. (2017). A Unified Approach to Interpreting Model Predictions[C]// Proceedings of the 31st International Conference on Neural Information Processing Systems. New York, USA: NIPS:4768-4777.

[27]Mangaroska, K., Sharma, K., & Gašević, D. et al. (2022). Exploring Students’Cognitive and Affective States During Problem Solving Through Multimodal Data: Lessons Learned from a Programming Activity[J]. Journal of Computer Assisted Learning, 38(1):40-59.

[28]Nakagawa, H., Iwasawa, Y., & Matsuo, Y. (2019). Graph-Based Knowledge Tracing: Modeling Student Proficiency Using Graph Neural Network[C]// Proceedings of WI ‘19: IEEE/WIC/ACM International Conference on Web Intelligence. New York, USA: ACM:156-163.

[29]Noroozi, O., Pijeira-Díaz, H. J., & Sobocinski, M. et al. (2020). Multimodal Data Indicators for Capturing Cognitive, Motivational, and Emotional Learning Processes: A Systematic Literature Review[J]. Education and Information Technologies, 25:5499-5547.

[30]Pereira, F. D., Fonseca, S. C., & Oliveira, E. H. T. et al. (2021). Explaining Individual and Collective Programming Students’Behavior by Interpreting a Black-Box Predictive Model[J]. IEEE Access, 9:117097-117119.

[31]Rathod, M., Dalvi, C., & Kaur, K. et al. (2022). Kids’ Emotion Recognition Using Various Deep-Learning Models with Explainable AI[J]. Sensors, 22(20):8066.

[32]Yakunin, K., Kasymzhanov, B., & Kuchin, Y. et al. (2019). Application of Machine Learning“Black Boxes” Explainers in the Development of a Recommendatory System for Improving the Quality of School Education[C]// Proceeding of the 17th International Scientific Conference on Information Technologies and Management. Riga, Latvia: ISMA:60-63.

收稿日期 2023-06-10 责任编辑 谭明杰


欢迎转载,开白请联系18980806833(微信号)
继续滑动看下一个
现代远程教育研究
向上滑动看下一个

您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存