计算机交互式评价的开发研究 ——以科学探究为例
点击蓝字关注我们
精选学术内容,让阅读更有价值
【刊载信息】李菲茗,张浩,林丽娟,黄怡. 2020. 计算机交互式评价的开发研究——以科学探究为例. 中国远程教育(5):29-37.
【摘要】计算机交互式评价以计算机模拟的形式呈现学科知识及其系统结构,并支持新颖的交互形式。评价学生的科学探究能力不仅需要创设丰富的任务情境,同时也要收集和分析学生的行为和作答数据。鉴于交互式评价与科学探究评价的契合性,文章基于以证据为中心(Evidence-Centered Design,ECD)的评价设计理念,解析了交互式科学探究评价的设计流程。首先,介绍了评价设计的理论基础——ECD框架。其次,结合科学探究评价的典型研究项目,以评价设计流程的任务分析、任务创设和数据分析为主线,总结了任务分析的领域信息来源、任务情境标准、任务创设的界面形式、学生作品和系统响应,以及数据分析中使用的多种数学模型。最后,讨论了交互式评价在评价的标准、实用性、非认知因素以及协同开发等方面应关注的问题和未来的发展方向,旨在丰富我国有关交互式评价开发的理论和实践研究。
【关键词】ECD;计算机交互式评价;过程性数据;科学探究;任务分析;任务创设;数据分析
一、
引言
在教育领域,信息通信技术(ICT)广泛应用于学校管理和教学过程,大量研究证明ICT有助于提升学校管理效率和教学质量(Kirkwood & Price, 2014)。近年来,计算机模拟和交互的技术不仅广泛应用于教学,也给教育评价的创新带来生机。基于计算机的评价,如基于模拟、情境和游戏的评价,从本质上改变了设计、开发、实现评价和收集数据的方式(Liu & Li, 2018)。基于计算机的评价能以新的方式呈现学科领域知识及其系统结构,并提供交互环境,使得被测者能够与计算机界面提供的任务指示、提示、反馈等交互,从而完成测试任务。相比纸笔测验和传统的上机考试,交互式评价主要有以下优点:首先,计算机能模拟真实世界的关键特征,创设丰富的任务情境,特别是一些无法直接或高效地通过实验室操作的现象(如地震、核裂变、捕食过程、植物生长等)(Quellmalz, Timms, Silberglitt, & Buckley, 2012)。其次,在交互式评价情境中,学生根据任务要求主动操作任务界面,并采取合适的步骤解决任务中提出的问题。再次,计算机可以以计算机日志文件的形式对学生的行为和作答数据进行实时记录。其中,学生的行为数据也称为“过程性数据”,这些数据有助于理解学生的问题解决策略,进而评价学生的高阶思维能力。最后,评价过程即学生的自主探究过程,实现了在学习情境中进行评价的理念,不仅记录了最真实的数据,也缓解了学生的考试焦虑,保证学生能够正常发挥。
交互式评价的以上特征使其更适用于需要专门知识作为推理证据的学科领域,如刑侦、心理学、医学、工程学、数学和科学等(Mislevy & Riconscente, 2005)。同时,科学学科因其丰富的画面需求与严谨的科学探究过程使得基于计算机的评价可以充分发挥技术优势。目前,交互式科学探究评价已在国际上开始应用。以美国为例,在课堂层面,基于模拟的Simscientists课程嵌入式评价持续地收集学生的行为数据,为学生提供即时反馈和修改答案的机会,从而实现对学生的个性化指导(Quellmalz, et al., 2012);在州层面,明尼苏达州通过模拟实验室实验和调查科学现象进行在线科学测试,犹他州也试验了科学模拟评价(King, 2011);在国家层面, 2009年(美国)全国教育进展评估(National Assessment of Educational Progress, NAEP)开始设计基于计算机的科学探究试题,之后针对技术和工程素养,NAEP于2014年开发了基于计算机交互的情境试题。在国际层面,每三年举行一次的国际学生测评项目(Program for International Student Assessment, PISA)自2006年开始纳入基于计算机的试题形式,2015年的部分科学试题采用了新型的人机交互形式。随着交互式科学探究评价的发展,Visual Performance Assessment(VPA)、River City 多用户虚拟环境(multi-user virtual environment, MUVE)等评价项目也接踵而来,旨在开发技术更加丰富、情境更加真实的评价(Baker, Clarke-Midura, & Ocumpaugh, 2016; Ketelhut, Nelson, Clarke, & Dede , 2010)。这些评价与下一代科学课程标准(Next Generation Science Standards, NGSS)密切关联,给美国各州提供了具有良好信效度的交互式科学探究评价。
当前,我国也开始重视STEM(Science, Technology, Engineering, Mathematics)教育及其与信息技术融合的研究(董泽华, 2016)。STEM教育以科学、技术、工程和数学学科为核心,以任务为基础并强调其课程跨学科整合(余胜泉, 等, 2015; 赵慧臣,等, 2017; 赵中建, 2016)。与STEM基于任务学习的理念一致,作为STEM课程核心内容的科学探究的评价也应该是基于任务的评价,而计算机提供的交互环境为实施基于任务的评价提供了可能。目前,我国有关交互式科学探究评价的研究还集中在对PISA、NAEP等评价的试题进行分析的阶段,如有关PISA试题设计和测评框架的分析、基于PISA测试数据的研究等(刘帆, 等, 2015; 刘克文, 等, 2015; 张莉娜, 2016)。然而,对如何开发此类试题还没有开展研究。
因此,本文将对构建计算机交互式试题的理论框架和开发流程进行分析,并以目前此类试题中比较成熟的科学探究试题为例展开说明,旨在为交互式科学探究评价的本土化研究和实践提供思路。首先,文章介绍国际最为通用的以证据为中心的设计(Evidence Centered Design, ECD, Mislevy, 1995)的评价框架。与此对应,通过具体案例解析交互式科学探究评价的设计流程。最后,文章进一步从评价的标准、实用性、非认知因素以及协同开发等方面指出了当前评价开发过程中应关注的问题和未来的发展方向。
二、
ECD理论依据
近年来,认知科学、教育与心理测量学以及计算机科学的发展深化了我们对学生获取和使用知识、技能、能力(knowledge, skills, abilities, KSAs)方式的认识,拓展了能表现学生KSAs熟练水平的证据种类。但对组成证据的复杂数据类型进行分析,无疑对创新评价设计提出了新的要求。最早由Mislevy等人(1995)提出的ECD源于基于证据进行推理的评价思想。同时,由于受Missck的“以结构为中心”的启发,ECD又进一步指明了评价设计包括选择和创作任务、收集多种类型的数据、确定评价规则、选取统计模型等(Messick ,1994 ; 刘红云, 2017)。在教育评价领域,ECD强调运用收集的学生作品(作答结果)和行为数据(操作痕迹)作为学生KSAs熟练水平的证据,即通过学生作品和行为表现来做有关学生知道什么和能做什么的推理。
图1左边部分描述了评价设计的理论基础——ECD的核心组成成分:学生模型、任务模型和证据模型。这些组成成分共同组成了具体任务或评价的论证结构。学生模型指定要测量的KSAs,任务模型引导学生以产生证据的方式反应,证据模型提供从学生反应的外在观测数据到学生潜在KSAs估算的评分模型和测量模型。学生KSAs熟练水平估算与证据之间联系的紧密程度决定了评价中学生模型的有效性(Mislevy, Steinberg, Almond, Haertel, & Penuel, 2001)。
图1 ECD理论框架和相应的评价设计流程
(一)学生模型
学生模型首先需要提出并具体定义期望评价的学生知识、技能、能力(冯翠典, 2012),这些知识和技能的掌握情况和熟练水平需要任务模型采集学生在任务中外在可观察的表现并通过证据模型中的测量模型来估算。学生模型可以通过任务分析确定学生完成任务应具备的领域知识、技能和能力(KSAs)(Haertel, Lash, Quellmalz, & Debarger, 2006)。在科学探究评价中,领域知识、技能和能力(KSAs)主要是指科学内容知识和科学探究能力(Mislevy & Riconscente, 2005)。
(二)任务模型
任务模型为任务创设提供了描述学生科学探究情境的框架。首先,框架包含了情境描述、实施/执行指示、任务指示等组成学生操作界面的元素。情境描述是对任务活动的日常情境和背景的描述。实施/执行指示包括将任务时限传达给学生,要求学生阅读并遵循测试指导语的说明。任务指示包括对任务活动的实验情境的描述和对学生行动的进一步指示。其次,框架也指定了学生作品,即学生对任务中具体题目的作答反应,比如是选择还是填空,是具体操作还是开放问答。最后,结合学生作品的作答情况,框架还包含了有助于学生完成任务的提示。例如:是否记住一个公式的详细信息?如果是,任务不直接提供公式信息,而是间接地唤起学生对这方面知识的记忆;如果否,那么给学生提供开卷问题或公式表。任务模型变量是任务模型的核心,指可以变化的任务条件和环境。在创作任务之前,任务模型变量代表了任务设计者制定的决策,如题目难度水平、时间限制、有无提示等(Haertel, et al., 2006)。
(三)证据模型
证据模型由评估模型和测量模型组成,展示了从任务中收集的数据组成学生模型变量得分证据的原因和方式。评估模型关注的是学生作品的质量,设计者从教育心理测量学角度确定了学生作品的评价规则,根据学生作品的特征生成可观察变量的值,即题目分数(Mislevy & Riconscente, 2005)。测量模型通过数学函数联结了可观察变量与学生模型潜在变量 KSAs,即基于评估模型生成的可观察变量分数可以通过测量模型进行跨题目累积和综合,最终得到对学生KSA熟练水平的估算。
三、
交互式科学探究评价设计流程
由于ECD评价框架的概念性较强,不利于试题编制人员理解。与ECD的学生模型、任务模型和证据模型相对应,本文在剖析已有交互式评价研究项目的基础上进一步梳理出评价设计流程中的三个要素,即任务分析、任务创设和数据分析(图1的右边部分)。接下来,本文将以四个典型的计算机交互式科学探究评价研究项目为例,分析和总结它们在评价设计流程中三个要素上的具体特征,以指导试题编制人员进行本土化的计算机交互式试题开发。
四个典型案例分别是(美国)全国教育进展评估(National Assessment of Educational Progress, NAEP)、SimScientist、Visual Performance Assessment(VPA)、River City 多用户虚拟环境(River City multi-user virtual environment, River City MUVE)。NAEP也称为“国家报告卡”(The Nation’s Report Card),由(美国)国家教育统计中心(National Center for Education Statistics,NCES)负责,由美国教育部(U.S. Department of Education)和教育科学研究所(Institute of Education Sciences,IES)主管的国会授权项目,旨在测量全美学生在多领域(如数学、阅读、科学和写作)上的知识掌握程度和能力水平,为国家、州、地区的教育政策以及学校的教育管理提供参考依据(2009)。SimScientist研究项目属于WestEd旗下STEM(Science, Technology, Engineering, & Mathematics)项目的子项目。与NEAP不同的是,该研究的侧重点是计算机模拟在科学学习和评价中的作用,研究的目标是汇集在基于模型的推理、认知学习、电子学习设计、智能辅助和教育测量等领域的最新研究成果和最佳实践来设计和测试支持中学科学学习和教学的创新办法(2015)。VPA是由哈佛大学教育研究生院开发的一套在线评价。与NAEP和SimScientist不同的是,该评价提供了多种在线三维虚拟情境,允许学生独立解决任务情境中的问题。该研究旨在探讨沉浸式虚拟环境在评价中学生科学探究能力上的可行性(Baker,et al., 2016)。River City MUVE 是一种用于学习科学探究21世纪能力的多用户虚拟环境。与以上三者不同,该研究项目将问题导向的虚拟环境嵌入科学课程中,旨在通过虚拟环境的学习体验使学生获得更高阶的探究能力,如协作探究能力。另外,该系统可以自动记录学生的行为数据,为学生与教师提供了诊断性报告,为开展相关研究提供了大量实证资料。最初,该研究项目在美国国家自然科学基金 (National Science Education, NSF)支持下完成了交互式计算机模拟环境的开发。自2009年8月开始,该研究项目转变为资金自我维持的项目,并由Activeworlds负责环境的运行和更新(Ketelhut, Dede, Clarke, Nelson, & Bowman, 2017)。四个项目的评价设计流程如表1所示。
表1 评价设计流程与案例
(一)任务分析
任务分析过程涉及:①对任务情境在日常生活中的常见性或典型性进行分析;②对学生完成任务需具备的领域知识、技能和能力(KSAs)进行分析。
通过模拟现实生活中常见问题情境的方式来提高学生对科学探究的理解和兴趣是交互式任务设计的初衷。任务设计者应明确评价情境是否来源于生活,蕴含的问题是否为科学问题。表2列举了四个典型计算机交互科学探究任务在这些方面的考虑。
表2 任务情境的标准
另外,领域相关的知识、技能和能力(KSAs)信息的来源包括课程标准、教科书及其他课程材料,其中最重要的信息来自课程标准。美国国家科学课程标准(NSES)是一种旨在提高公民科学素养的综合化课程标准,涵盖所要遵循的科学原则、教学、评价、内容标准等内容,其中内容标准部分将科学探究过程按阶段进行了划分。下一代美国科学课程标准(NGSS)在NSES基础上进一步明确了科学探究实践、领域核心知识、跨学科概念及其之间的相互作用(National Research Council, 2013)。如由美国自然科学基金(NSF)支持的SimScientists、ScienceASSISTments和Biokids等研究项目整合了领域核心知识和科学探究实践,用以考察学生的科学素养(Pellegrino, 2013)。我国的科学课程标准,如《义务教育初中科学课程标准(2011年版)》,将科学探究能力以提出问题、做出假设、制定方案、收集证据、解释评价、表达交流的线性方式展开,基本沿用了NSES的分类(中华人民共和国教育部, 2012)。
(二)任务创设
基于ECD框架中的任务模型,评价设计者在创作任务前需要编写包含界面形式、学生作品、系统响应等成分的脚本,为创作任务提供详细的指导。
目前,基于计算机的交互式科学探究评价的操作界面主要包括两种形式,即二维操作界面和沉浸式三维虚拟世界。二维操作界面普遍应用于PISA、NAEP等大规模评价及Calipers、SimScientists、Inq-ITS等研究项目(Hatzinikita, Dimopoulos, & Christidou, 2010; Herman, 2011; Li, Gobert, & Dickler, 2017; Quellmalz, et al., 2005; Quellmalz, Timms, & Buckley, 2010;Wixon, Baker, Gobert, Ocumpaugh, & Bachmann , 2012)。NAEP八年级科学试题《游乐场土壤》界面(NAEP Science 2009: Playground Soil, 2009)基于动画对实验材料及操作流程进行了模拟,界面还设置了放大键、对渗透率定义的解释键和样例土壤的切换键(见图2)。实施/执行指示指明任务时限为20分钟,并声明测试目的是通过调查两种土壤样例的属性来决定游乐场的最佳场址。任务指示提出学生需要调查来自两个地点的土壤样例的渗透率,并做出下一步的行动指示(2009)。SimScientists(2015)《草原食物链》问题基于动画模拟了草原生态系统(见图3)。任务指示提出学生首先要观察一段包含草原生物之间相互作用的动画,特别是其中每个生物获取物质和能量的方式,最后基于观察结果回答问题。另外,学生还可以通过移动在生物名称上的光标来辨识生物体的外在形态,移动在生物体上的光标来识记生物体的名称。
图2 NAEP2009《游乐场土壤》界面
图3 SimScientist《草原食物链》界面
沉浸三维虚拟世界及加入游戏元素的虚拟世界,即虚拟游戏,常见于一些研究项目,如VPA、SAVE Science、River City、Crystal Island等(Baker,et al., 2016; Baker & Clarke-Midura, 2013; Nelson, Kim, & Slack, 2016; Taub, Azevedo, Bradbury, Millar, & Lester, 2017; Taub, et al., 2017)。如VPA项目案例,《村庄出现了变异青蛙(there is a new frog in the town)》模拟了一个发生青蛙变异的村庄,村庄包含多个有池塘的农场、蝌蚪、正常青蛙、带有六条腿的多色青蛙、科学实验室、一名科学家和多名农民(见图4)。实施/执行指示指导教师和学生登录评价系统的方式和流程。教师需要登录教师页面,为学生开设账户,选择要执行的评价。学生需要登录学生界面,选择代表自己的“虚拟人物”并进入系统。任务指示通过镜头切换的形式进行,为学生提供通向问题空间的视角。学生首先会看到一个村庄,紧接着看到多个带有池塘的农场。然后镜头集中在一只六条腿的多色青蛙。此时评价开始,那些已经发现变异青蛙的科学家和农民会问候代表学生的“虚拟人物”。农民会提出许多青蛙变异原因的假设,然后科学家询问学生认同哪些假设,并告知学生要进行调查并得出可以基于证据进行检验的结论(Baker,et al., 2016; Clarke-Midura, Code, Zap, & Dede , 2012)。River City多用户虚拟环境是一座19世纪的工业城市,其中包含各种社区、工厂、机构(如医院和大学)以及一条穿城而过的大河,不同的地形影响水的径流。实施/执行指示指导学生选择代表自己的“虚拟人物”,与环境中的其他参与者或代理人通过对话框和虚拟姿势交流。学生可以通过点击环境中的物品触发内容,也可以使用数字工具来观察样本(见图5)。任务指示是River City 市长委托学生回到1878年,帮助她查出居民生病的原因。River City同时发生三种基于多种致病因素的疾病,这使得学生需要进行多种探究活动(Ketelhut, 2007)。
图4 VPA《村庄出现六个腿的青蛙》界面
图5 River City MUVE界面
学生作品由操作界面决定,二维动画界面的学生作品依赖于具体的题目类型。IMS Global Learning Consortium尝试建立了以多媒体形式编码题目的标准方法,开发了题目和测试互操作(Question and Test Interoperability, QTI) 规范,当前版本包含32类交互空间,能够用来创建多种题目类型,包括不同类型的选择、填空、拖放、画线、高亮、排序和扩展性文本等(IMS Global Learning Consortium, 2002)。NAEP2009八年级科学题《游乐场土壤》、SimScientists《草原食物链》问题包含了选择、填空、拖放以及生成扩展性答案的文本框等多种题型。和二维操作界面依赖于学生对题目的作答来反映学生的能力水平不同,三维虚拟世界对学生表现的评价建立在学生与近乎真实的世界进行交互的基础上。在VPA系统中,学生的科学探究能力通过一系列选择来表现,这一系列选择产生的丰富观察结果能够很好地反映学生在科学探究各子维度上的熟练水平。在VPA个案《城镇出现变异青蛙》中,学生基于假设选取样本并在虚拟实验室中对这些样本进行实验,最终提出有证据支持的结论(Baker,et al. , 2016; Clarke-Midura, et al., 2012)。在River City MUVE中,学生用代表自己的“虚拟人物”与多个参与者组成小组,共同访问虚拟世界,通过与基于计算机的代理人交流制定各种类型的协作学习活动,以创建一个探究学习者社区。学生小组对三种疾病的病因提出假设,选取样本并进行检验,最后在“致市长的一封信”中写下真实的实验报告(Ketelhut, et al., 2010)。
系统响应指在科学探究过程中交互式评价系统自动呈现的或由学生操作触发的信息提示和反馈,具体表现形式包括正确答案、对答案的解释等,信息呈现的丰富程度由学生的水平决定。按照响应的时间节点,可分为即时反馈和任务完成后的整体反馈。提供即时反馈的评价可以自动评估学生的KSAs,并根据评估结果来确定是否给予提示及给予什么样的提示,同时通过实时抓取对相同或相似问题的尝试次数,为学生提供逐级水平的脚手架。例如:SimScientists课堂嵌入式评价会根据不同作答情况给予不同的提示。当题目作答错误时,系统显示指导方案;当错误答案没有得到修改时,系统显示请继续修改;当作答次数过多时,系统提示指导方案和正确答案(Quellmalz, et al., 2012)。SimScientists中的单元基准评价为教师和学生提供有关整体表现的信息反馈。在单元基准评价中,系统不会为学生提供即时反馈,但会记录学生的作答结果和行为数据,并在学生完成评价后以整体报告的形式描述学生相关KSAs水平(Quellmalz, Silberglitt, Buckley, Loveland, & Brenner , 2016)。
(三)数据分析
相较于以选择题为主的传统上机考试,计算机交互式评价的题目类型更为多样,因此最终收集的数据类型也比较多样。二维操作界面的数据主要来自对多种试题类型的输入,如选择的字母、可扩展性文本中的解释、测量或计算的数字等。而三维虚拟世界赋予学生更多的自主选择,数据类型包括与虚拟对象的交互、操作的时间点和时长、对探究流程的决策、对样本的选择与实验等过程性数据,因此数据分析难度相比二维操作界面更大。
目前,二维操作界面的数据分析模型主要有项目反应理论(Item Response Theory, IRT)(Quellmalz ,et al. , 2012)。在NAEP2009八年级科学题《游乐场土壤》中,首先根据NAEP评分标准确定每个题目的得分即可观察变量,每个题目对应单独的评估过程。虽然每个题目只与一个学生模型变量相联系,但由于整个任务中存在多个题目测量不止一个学生模型变量的情况,因此针对整个任务的数学模型是题目间的多维模型。同时,任务中存在顺序依赖的题目,如计算土壤渗透率的题目依赖于测量水容积的题目。针对存在依赖关系即违反条件独立性的题目,可以通过“捆绑”(Bundle)的方式使得相关题目得出单一的分数,独立于任务中其他题目的分数。而处理“捆绑”产生的“捆绑内”多个维度的方式,依赖于每个捆绑内的学生模型变量(Seibert, Hamel, Haynie, Mislevy, & Bao, 2006)。
在三维虚拟世界中,学生行为数据被后台记录下来,包括行为类型、行为位置、被操作对象、交互细节以及时间戳等计算机日志文件(Baker, et al., 2016; Ketelhut, Nelson, Sil, & Yates, 2013; Leeman-Munk, Wiebe, & Lester, 2013)。分析学生行为数据包括两个步骤:学生的初始行为数据被编码为有意义的特征;运用数据挖掘技术产生评价学生表现的数学模型。VPA个案《城镇出现变异青蛙》的初始行为数据被处理为48个语义特征,用于预测学生最终结论的正确性(青蛙六条腿的原因)和设计因果解释的能力(结论正确的原因)。对学生最终结论的评价基于学生最终答案的正确性,最终答案被视为二分类问题,适合采用决策树的一种衍生算法:基于信息增益的规则归纳算法-JRip Decision Rules、Kappa 和A’作为模型好坏的度量。对设计因果解释能力的评价基于学生提供的证据支持结论的程度来分配分值。首先要求学生识别作为证据的数据,然后学生指出选择的数据是否可以作为结论的证据,最后这些证据通过各个指标汇总成单一的评价结果。设计因果解释能力的数据分析模型可以采用线性回归,模型解释率作为模型好坏的度量(Baker & Clarke-Midura, 2013)。
四、
启示与未来
(一)制定评价标准
虽然课程标准是领域知识、技能和能力(KSAs)信息的重要参考,但并不能直接为试题编制人员提供指导。NAEP评价框架依据美国《国家科学教育标准》《科学素养基准》以及PISA评价框架,详细说明了学生科学素养的期望表现,用于指导NAEP试题设计。我国用于规范中考和高考的《考试说明》同样依据课程标准,重视考查科学探究能力,同时根据课程标准三维目标分类提出了初中毕业生应该达到的水平。然而,无论是NEAP评价框架还是《考试说明》,都未能基于年级水平提供评价设计的操作性方案,导致试题考查内容与课程标准中的考察目标不一致。因此,科研工作者应立足课程标准,确定评价标准,进而编制可操作的试题设计手册。
(二)保证评价实用性
过分关注情境真实性会影响评价设计的实用性。评价的实用性受学生实施交互行为效果的影响。具体而言,如果与真实情境高度一致的交互空间允许学生采用准确而有效的方式产生反应,为有特殊需求的学生提供足够的辅助功能,那么评价实用性会最大化。相反,如果与真实情境高度一致的交互空间对于一些学生来说效率低或难以访问,则其实用性会降低。因此评价设计必须同时考虑情境真实性、可用性和对特殊学生群体的无障碍性(Russell, 2016)。
(三)关注非认知因素
交互式科学探究评价设计除对学生的科学探究水平进行估计之外,还需要关注学生的非认知因素(如科学态度、参与度、幸福感等),从多个方面了解科学教育质量。PISA2015将科学态度分为对科学的兴趣、评价科学探究方法的价值和环境意识三个维度,其中对科学的兴趣又可以进一步分为对科学议题的兴趣、科学乐趣、科学活动参与、未来职业期望、工具性动机、科学自我效能等,通过学生问卷的形式进行考察(PISA, 2015)。
(四)增进跨领域协作
尽管采用ECD理论框架可以指导评价设计,但评价设计的有效性需要科研工作者、科学教师和技术人员共同参与和合作。科研工作者编写可操作的评价框架,科学教师根据评价框架编写题目脚本,技术人员根据脚本生成最终的交互式科学试题。在实际工作中,教育管理部门也应该参与其中,保证编制的交互式科学试题符合本土要求。
参考文献
向上滑动阅览
董泽华. 2016. 试论我国中小学实施STEM课程的困境与对策[J]. 全球教育展望,45(12):36-42.
冯翠典. 2012. “以证据为中心”的教育评价设计模式简介[J]. 上海教育科研(8):12-16.
刘帆,文雯. 2015. PISA2015 科学素养测评框架新动向及其对我国科学教育的启示[J]. 外国教育研究,42(10):117-128.
刘克文,李川. 2015. PISA2015科学素养测试内容及特点[J]. 比较教育研究(7):98-106.
郑兰琴,孙巍,张定文. 2018. 利用技术促进教与学的创新:访国际教育技术协会首席学习官Joseph South教授[J/OL]. 中国远程教育:1-7. [2019-04-14]. https://doi.org/10.13541/j.cnki.chinade
余胜泉,胡翔. 2015. STEM教育理念与跨学科整合模式[J]. 开放教育研究(4):13-22.
袁建林,刘红云. 2017. 核心素养测量:理论依据与实践指向[J]. 教育研究(7):21-28.
张莉娜. 2016. PISA2015科学素养测评对我国中小学科学教学与评价的启示[J]. 全球教育展望(3):15-24.
赵慧臣,周昱希,李彦奇,刘亚同,文洁. 2017. 跨学科视野下“工匠型”创新人才的培养策略:基于美国STEAM教育活动设计的启示[J]. 远程教育杂志(1):94-101.
赵中建. 2016. 美国中小学工程教育及技术与工程素养评估[J]. 全球教育展望,45(12):3-24.
中华人民共和国教育部. 2012. 初中科学课程标准 (2011年版)[S]. 北京:北京师范大学出版社.
NAEP.(2009). NAEP Science 2009: Playground Soil, retrieved October 19, 2018, from https://www.nationsreportcard.gov/science2009ict/soil/soil1.aspx
SimScientists.(2015). The embedded formative assessments for ecosystems, retrieved July 25, 2018, from http://simscientists.org/MiniSite/media/ecoglem1_08_01_13/app.html
Baker, R. S., Clarke-Midura, J., & Ocumpaugh, J. (2016). Towards general models of effective science inquiry in virtual performance assessments. Journal of Computer Assisted Learning, 2(3), 267-280.
Baker, R. S., & Clarke-Midura, J. (2013, June). Predicting successful inquiry learning in a virtual performance assessment for science. In International Conference on User Modeling, Adaptation, and Personalization (pp. 203-214). Springer, Berlin, Heidelberg.
Haynie, K. C., Haertel, G. D., Lash, A. A., Quellmalz, E. S., & DeBarger, A. H. (2006). Reverse engineering the NAEP floating pencil task using the PADI design system. Menlo Park, CA: SRI International.
Hatzinikita, V., Dimopoulos, K., & Christidou, V. (2010). PISA test items and school textbooks related to science: A textual comparison. Science Education, 92(4), 664-687.
Herman, J., Dai, Y., Htut, A. M., Martinez, M., & Rivera, N. (2011). Evaluation of the enhanced assessment grants (EAGs) SimScientists program: Site visit findings. Los Angeles: CRESST.
IMS Global Learning Consortium. (2002). IMS Question & Test Interoperability: An Overview Final Specification Version 1.2. retrieved July 25,2018, from https://www.imsglobal.org/question/qtiv1p2/imsqti_ovi ewv1p2.html
Ketelhut, D. J. (2007). The impact of student self-efficacy on scientific inquiry skills: An exploratory investigation in River City, a multi-user virtual environment. Journal of Science Education and Technology, 16(1), 99-111.
Ketelhut, D. J., Dede, C., Clarke, J., Nelson, B., & Bowman, C. (2017). Studying situated learning in a multiuser virtual environment. In Assessment of problem solving using simulations(pp. 47-68). Routledge.
Ketelhut, D. J., Nelson, B., Sil, A., & Yates, A. (2013). Discovering what students know through data mining their problem-solving actions within the immersive virtual environment. SAVE Science. American Educational Research Association.
Ketelhut, D., Nelson, B., Clarke, J., & Dede, C. (2010). A multi-user virtual environment for building and assessing higher order inquiry skills in science. British Journal of Educational Technology, 41(1), 56-68.
King, K. (2011). Balanced, multilevel science assessment systems. In National Conference on Student Assessment. Orlando, FL.
Kirkwood, A., & Price, L. (2014). Technology-enhanced learning and teaching in higher education: What is ‘enhanced’ and how do we know? A critical literature review. Learning, media and technology, 39(1), 6-36.
Leeman-Munk, S., Wiebe, E. N., & Lester, J. (2013). Mining student science argumentation text to inform an intelligent tutoring system. In AERA Annual Meeting, San Francisco.
Li, H., Gobert, J. D., & Dickler, R. (2017). Automated Assessment for Scientific Explanations in On-line Science Inquiry. In EDM.
Liu, H., Liu, Y., & Li, M. (2018). Analysis of Process Data of PISA 2012 Computer-Based Problem Solving: Application of the Modified Multilevel Mixture IRT Model. Frontiers in psychology, 9.
Messick, S. (1994). The interplay of evidence and consequences in the validation of performance assessments. Ets Research Report, 23(2), 13-23.
Mislevy, R. J. (1995). Evidence and inference in educational assessment. Psychometrika, 59(4), 439-483.
Mislevy, R. J., Steinberg, L. S., Almond, R. G., Haertel, G. D., & Penuel, W. R. (2003). Leverage points for improving educational assessment. In B. Means, G. D. Haertel(Eds.), Evaluating the effects of technology in education (pp. 149-180).Mahwah: Lawrence Erlbaum.
Mislevy, R. J., & Riconscente, M. M. (2005). Evidence-Centered Assessment Design: Layers, Structures, and Terminology.
National Research Council. (2013). Next generation science standards (95). Washington, D C: National Academies Press.
Nelson, B. C., Kim, Y., & Slack, K. (2016). Visual signaling in a high-search virtual world-based assessment: A SAVE science design study. Technology Knowledge & Learning, 21(2), 1-14.
Pellegrino, J. W. (2013). Proficiency in science: Assessment challenges and opportunities. Science, 340(6130), 320-323.
OECD.(2013-03-12).Draft PISA 2015 Science Framework. retrieved September 20, 2019, from http:/www.oecd.org/pisa/pisa products/pisa 20l5 draft frameworks.html
Quellmalz, E. S., DeBarger, A. H., Haertel, G., Schank, P., Buckley, B., Gobert, J., & Ayala, C. (2008). Exploring the role of technology-based simulations in science assessment: The Calipers Project. In J. Coffrey, R. Douglas, & C. Stearns(Eds.), Science assessment: Research and practical approaches (pp.191-202). Washington, DC: National Science Teachers Association.
Quellmalz, E. S., Silberglitt, M. D., Buckley, B. C., Loveland, M. T., & Brenner, D. G. (2016). Simulations for supporting and assessing science literacy. In Handbook of research on technology tools for real-world skill development (pp. 191-229). IGI Global.
Quellmalz, E. S., Timms, M. J., Silberglitt, M. D., & Buckley, B. C. (2012). Science assessments for all: Integrating science simulations into balanced state science assessment systems. Journal of Research in Science Teaching, 49(3), 363-393.
Quellmalz, E. S., Timms, M. J., & Buckley, B. (2010). The promise of simulation-based science assessment: The Calipers project. International Journal of Learning Technology, 5(3), 243-263.
Russell, M. (2016). A framework for examining the utility of technology-enhanced items. Journal of Applied Testing Technology, 17(1), 20-32.
Seibert, G., Hamel, L., Haynie, K., Mislevy, R., & Bao, H. (2006). Mystery powders: An application of the PADI design system using the four-process delivery system. Draft PADI Technical Report 15. Menlo Park, CA: SRI International.
Taub, M., Azevedo, R., Bradbury, A. E., Millar, G. C., & Lester, J. (2018). Using sequence mining to reveal the efficiency in scientific reasoning during STEM learning with a game-based learning environment. Learning & Instruction, 54, 93-103.
Taub, M., Mudrick, N. V., Azevedo, R., Millar, G. C., Rowe, J., & Lester, J. (2017). Using multi-channel data with multi-level modeling to assess in-game performance during gameplay with Crystal Island.Computers in Human Behavior,76, 641-655.
Wixon, M., d Baker, R. S., Gobert, J. D., Ocumpaugh, J., & Bachmann, M. (2012, July). WTF? Detecting students who are conducting inquiry without thinking fastidiously. In International Conference on User Modeling, Adaptation, and Personalization(pp. 286-296). Springer, Berlin, Heidelberg.
作者简介
李菲茗,博士,教授,硕士生导师,浙江师范大学教师教育学院(321004)。
张浩,硕士研究生;林丽娟,硕士研究生;黄怡,硕士研究生。浙江工业大学教育科学与技术学院(310023)。
基金项目:本文受浙江省自然科学基金项目“基于计算机模拟的交互式科学探究测评的开发和研究”(项目编号:LY20C0900002)和国家自然科学基金青年项目“基于潜变分析的动态认知诊断研究”(项目编号:31600908)资助。
责任编辑:单 玲
中国期刊方阵双效期刊
中文核心期刊
中文社会科学引文索引(CSSCI)来源期刊
AMI综合评价(A刊)核心期刊
人大复印报刊资料重要转载来源期刊
中国科学评价研究中心(RCCSE)核心期刊
邮发代号2-353,全国各地邮局均可订阅。
本社亦办理征订,联系电话:010-68182513
更多精彩内容,尽在阅读原文
我知道你在看哟
欢迎您留言,反馈意见建议
电话:(010)68182514
邮箱:zzs@ouchn.edu.cn