|
|||
|
全球基础教育质量评估变化趋势及其对我国基础教育质量监测的启示——以PISA、TIMSS、NAEP为例
|
陕西师范大学化学化工学院/北京师范大学中国基础教育质量监测协同创新中心陕西师范大学分中心副教授 严文法 陕西师范大学化学化工学院 刘雯 陕西师范大学远程教育学院 李彦花
|
发布时间:2020-12-25
|
摘要:信息时代,各国对基础教育的重视程度与社会要求日趋增高,基础教育质量评估也随之发生变迁。以三种基础教育质量评估项目,即国际学生评价项目(PISA)、国际数学与科学趋势研究(TIMSS)、美国国家教育进展评估(NAEP)为例,通过分析其发展特点,得出全球基础教育质量评估具有评估内涵和维度深度化、能力要求全面化、数字信息技术常规化、测评工具多样化和情境化等新趋势。 关键词:基础教育,质量评估,PISA,TIMSS,NAEP [基金项目]北京师范大学中国基础教育质量监测协同创新中心重大成果培育性项目“中小学生科学概念学习进阶研究”(项目编号:2018-05-015-BZPK01);教育部人文社会科学研究规划基金项目“跨学科视角下的中小学科学核心概念学习进阶研究”(项目编号:18YJA880103)。 21世纪以来,以信息技术革命为代表的科技革命势头更甚,世界产业和经济格局随之转变,人的知识、技能和品格成为各国在国际竞争中取得优势的决定性因素。[1]基础教育质量监测通过定期对适龄学生学业水平的考察,获悉国家基础教育质量的发展状况,对输出人才质量起到监测和保障作用,故其无可避免地成为一个重要论题。2002年第57届联合国大会宣布“可持续发展教育十年(2005-2014)”行动计划,其中提出,有质量的教育是可持续发展的必要条件,其中首要的就是提高基础教育的发展水平。[2] 2012年,我国明确提出,全面实施素质教育,着力提升教育质量;2017年,我国强调要创新监管模式,努力让每个孩子都能享有公平而有质量的教育。为贯彻落实前述精神,全面提高我国义务教育质量,我国教育部基础教育质量监测中心自2015年起,开展了国家义务教育质量监测工作,并于2018年7月基于第一周期六个学科的国家义务教育质量监测数据结果,发布了我国首个义务教育质量监测报告。[3]这是我国基础教育质量监测的一个里程碑,也是我国基础教育事业紧跟时代和国际步伐的标志。在此背景下,勘查全球其他基础教育评估体系的发展趋势,捕捉国际领先的基础教育发展方向与人才要求,对于我国继续完善义务教育质量监测工作以及进一步提高监测水平具有实际意义。 一、典型基础教育质量评估项目及其演进 国际学生评价项目(Program for International Student Assessment,简称PISA)与国际数学与科学趋势研究(Trend in International Mathematics and Science Study,简称TIMSS)是在国际组织的支持和筹措下产生的两个国际范围内的教育成就评价项目,也是目前全世界最具影响力、覆盖面最广的基础教育成效评估体系。NAEP虽是国家层面的评估项目,但作为美国国内最具权威性的中小学学业成就评价体系,同样在全球各国拥有广泛的认可度和接受度。这三种测评项目均有起源较早、涉及课程项目丰富、对被试能力的考查全面等显著特点,发展至今已经形成了各自较为成熟的测评理念和方式,并都在根据时代特征不断进行完善和调整。 (一)PISA项目及其演进 PISA是经济合作与发展组织(OECD)于1997年推出的国际学生评估项目。自2000年起每三年进行一次测评,到2015年已有72个国家和经济体参与测试,[4]2018年增至80个。[5]PISA测试对象为即将完成义务教育阶段的15岁学生,核心测试领域为阅读、数学和科学三大素养。该项目由OECD统筹,参与国委员会、国际委员会、各参与国项目主管等机构共同完成。[6] PISA的第一代框架构建于20世纪90年代,其科学素养评估采用三维框架进行描述,即过程、概念和情境,其中过程是测评重点。PISA 2003中,虽然过程仍然是主要的测评目标,但已经开始更多地测评公众对于科学的理解。PISA 2006至今,陆续增加了多项未来公民核心能力与素养,提出行为应该由学生面临的情境和任务来定义,而非由科学规律决定,更加注重对于被试综合能力和认知的探查。[7]对于测评手段的和途径的改良也一直在进行,比如使用概念图代替矩阵模型、率先开启大规模计算机评估等。此外,PISA的突出转变还表现在对测评结果的定位和解读上,除公布各国在每一个测试项目中的详细排名外,其在每轮测评结束后提供的报告越来越详细。外延涉及教育公平、校园暴力等突出问题与教育成果间的关系,引导研究者理性看待教育测量的结果。[8] PISA并不单纯调查学生对课程内容的掌握,也不关注各个参与国教学大纲的共同点,而是围绕学生应当学到的知识内容与结构、涉及应用的过程、运用取得知识与能力的情境这三个方面展开各领域的评估,以学生学业质量来反映基础教育的水平。[9]大范围的学生问卷、学校问卷以及家庭和社区问卷也是PISA的重要特征,OCED以此为依据来测量社会、经济、文化和教育等因素与学生能力差异间的可能联系。聚焦素养的测试和详尽的报告分析使PISA为各个参与国提供了包含知识、技能和能力方面的测量指标,又提供了调查所得的包含人口计量、社会经济、学校特点等与教育链接的变量信息的背景指标,因而容易驱动各国教育政策的变革。 (二)TIMSS项目及其演进 TIMSS的简写最初是指“Third International Mathematics and Study”,其由国际教育成就评价协会(International Association for the Evaluation of Educational Achievement,简称IEA)策划组织,自1995年开始测评。[10]TIMSS每隔四年对参评国家4年级和8年级学生的数学和科学水平进行测量,[11]因此,恰好可以看到同一个国家学生自4年级到8年级的数学和科学素养的变化情况,故其现为“Trend in International Mathematics and Science Study”的缩写。[12] TIMSS将学生的认知水平分为理解、应用和推理三个等级,由学生的测试结果和解答问题过程判断学生所处学习水平的位置。[13]相比较PISA对于知识内容的理解和应用的关注,TIMSS更加侧重于评价学生课程知识内容的掌握程度,[14]因此,教师往往会根据学生的测评结果,制定出相对应的课程和教学措施去进行干预,从而提高学生的能力。[5]TIMSS构造了其独特的课程框架,把课程划分为预期课程、实施课程及实现课程,将这三者分别对应社会文化背景、学校及社区背景和个人背景。在构建测评框架时,将实现课程划分为“内容”、“表现”和“观感”三个维度;比较成绩时则会在测评框架下分析不同国家或地区实现课程的差异,以求更准确地反应不同国家或地区教育系统中各个因素与成绩的关系。[16] TIMSS测评框架的变化则主要表现在能够以参与评价的国家或地区的课标修订为依据来更新自身测评广度,并不断综合内容和认知维度。[17]TIMSS重视测评学生未来所需的关键素养,在TIMSS 2003-2011中表现为单独设立维度考查学生的探究能力,而自TIMSS 2015起则突出表现在对学生实践能力的强调上。[18]TIMSS对信息时代所带来的教育变化和冲击同样有敏锐的反应,除了引入计算机测评手段之外,还允许在数学测试中使用计算器等电子设备。[19]自第二次测评起,IEA明确发布了基于参评国家的课程标准制定的TIMSS评估框架,随后的命题与测评均按照评估框架进行。高度的规范性和指向性使该测评对于各国数学和科学教育实施与改革具有重要意义。TIMSS的第七次全球范围调查评估于2019年进行,有超70个国家或地区参与。[20] (三)NAEP项目及其演进 美国国家教育进展评估(The National Assessment of Education Progress,简称NAEP)是美国最大的学生评估项目,发端可追溯至20世纪60年代,[21]由美国国家教育统计中心提供资金支持并管理,由国会成立的评价管理委员会负责开发评价体系和政策,于1969年开展第一次测评。[22] NAEP主要以4年级、8年级和12年级的公立或私立学校学生为样本,发展至今测量内容已经涵盖数学、阅读、科学、写作、艺术、公民学、经济、地理、历史、技术和工程素养等学科。[23]1990年,NAEP确立了每两年一次的测评周期,[24]1996年后更改为国家层面评估每年举行一次,每次评估2~3个学科,州层面的评估则每两年进行一次。[25]NAEP可分为两个部分:第一是依照测评框架对学生具体学科的素养水平进行测试;第二则是通过问卷调查对学生、教师、学校管理者等背景信息进行收集,这些信息都将严格保密。[26] 早期的NAEP框架与美国中小学课程纲领关系密切,无法很好地解释认知过程(布卢姆提出的“认知过程”)与科学探究间的区别和矛盾。直到1996年,伴随美国的国家科学教育改革,NAEP也开始逐渐拓宽评估领域,不再局限于固定课程的内容与理论。2009年至今,NAEP已经超越了传统课程及其改革的桎梏,开始强调实践能力的重要性,同时关注认知心理的新发展。[27]在测评工具的变化上,NAEP在开展基于计算机测评的过程中,使用了统一的测评电脑以尽可能减少误差。在2014年之后的评估中,NAEP开始强调学生在真实情境中解决复杂问题的能力,在科学、技术和工程素养评估的交互式任务中体现尤为显著。[28] 作为一项国家层面的基础教育质量评估项目,NAEP有着不同于国际评估的特殊功能,表现在以下两个方面:第一,具有评价和监督学生的学习成绩、协助美国国会对教育质量问责的基本功能;第二,具有作为制定州课程内容标准、设计州评价项目的参考依据,以及协助美国进行国际比较找出教育不足的衍生功能。[29] 二、全球基础教育质量评估的变化趋势 虽然在具体素养内涵解释或能力层级划分等细节之处存在差异,但这三大测评项目在评价内容及评价水平框架上均有相似之处;三者之间也存在着互相借鉴与影响,比如NAEP的测评框架中明确指出其评价依据之一是TIMSS和PISA已有的研究成果。这使得寻找这三大国际测评的一致倾向与变化具有了可能性,也使得透过这三大测评体系来窥看世界基础教育测评发展趋势具备了合理性。经过对其各自评估设计的研读及相关文献的查阅,可对其整体变化趋势进行以下总结。 (一)测评素养的内涵与维度不断发展和深化 正如前文所述,国际基础教育质量评估项目旨在测评特定年龄青少年不同方面关键素养的水平:PISA重在评估参评国家与地区15岁青少年阅读、数学和科学素养;TIMSS主要测评参评国家4年级和8年级学生的数学与科学能力;NAEP则全方位关注美国4年级、8年级、12年级学生的多项学科素养。从被评估素养的定义角度来看,素养的范围界定趋于宽泛、能力水平要求趋于深化、测试维度趋于丰富是各项国际测评共同的变化特征。例如,PISA 2000中对于阅读素养的定义为:能够理解、运用和反思书面文本,以达到自己的目标,发展自己的知识和潜能并融入社会。[30]在PISA 2009与PISA 2015关于这一素养的定义中,对于文本的处理加入了“参与”(Engaging with)这一要求;PISA 2018中,又再次加入了“评价”(Evaluating),并强调对优秀学生阅读能力的描述不仅包括能够理解和交流复杂信息,还包括在阅读一个不熟悉的话题时区分事实和观点的能力;阅读评估更加强调跨越多个来源发现、比较和整合信息的能力。[31]不断增加的环节越来越注重被试与测评项目的交互,体现了素养本身内涵的泛化和对学生更高的能力要求。OECD强调所添加的每一项技能都是必要的,[32]其中的任何一个单独技能都不足以取得符合时代要求的成功。 NAEP科学评估框架的演变则很好地体现了被测素养维度的发展,其最初的测试框架分为科学领域(Fields of Science)和科学认识(Knowing and Doing Science)两个维度,自2009起,NAPE的科学测评框架更改为科学内容(Science Content)和科学实践(Science Practice),并将科学内容分为物质科学、生命科学、地球与空间科学三个子维度,科学实践细分为识别科学原理、运用科学原理、运用科学探究及运用技术设计四个子维度。[33]在NAEP 2011和NAEP 2015的科学学业成就水平描述中,则一改之前对于各子维度水平的分别划分,在保留对“科学内容”子维度具体描述的基础上,将“科学实践”四个子维度合并描述。[34]这一变化实际上是将科学实践渗透到各个学科内容中进行考查,强调各子维度能力之间的有效整合。 (二)对学生能力要求更加全面,关注能力对公民生活的作用 基础教育质量监测最根本的目的在于把握完成正常基础教育后青少年是否具备了教育政策制定者期望他们所能具备的能力,进而衡量现行基础教育是否适应特定社会或国家对于人才的基本需要。由于对教育和人才认识的局限性,早期的国际基础教育测评往往只评估适龄学生与学校核心课程相关的能力和素养,而随着教育的发展,越来越多非传统意义上的核心能力也被加入测评范围。以PISA为例,2000年进行首次测评以来,逐步增加了一些新的测试领域,如PISA 2003增加问题解决能力(Problem Solving Ability),PISA 2012增加财经素养(Financial Literacy),[35]PISA 2015增加合作解决问题能力(Collaborative Problem Solving Ability),[36]PISA 2018增加全球胜任力(Global Competence),[37]并计划在PISA 2021中增加创造性思维(Creative Thinking)这一指标。[38]同时在测评项目的设定中注重学生批判性思维、元认知策略和意识以及终身学习等能力的体现,[39]强调测评要关注素养发挥作用的全部方面,从私人领域到公共领域、从学校到工作、从正规教育到终身学习和培养积极的公民品行。[40]NAEP 2017的测评范围虽然已经涵盖超过了10个学科,其依然提出将在2018-2019的评估中继续增加科目,以考查学生能力的全面性。[41]TIMSS虽然没有明确评估科目和领域的增加,但在其2019年的测评框架中也着重强调数学和科学素养在日常生活中的作用和在职业领域中的迁移。[42] 正如OECD在PISA 2018年结果分析中的观点所言,当今世界的任何角落,学生所受的教育年限都远远超过他们的父辈,但仍然在进入就业市场等挑战面前显得力不从心。归根结底,对于年轻人来说,光靠学业上的成功不足以确保轻松过渡到好的就业岗位及生活。[43]由此,国际测评也已经不满足于对学生基本认知能力的评价,而是开始关注学生全面融会知识以继续学术生涯和职业生涯并最终提高终身生活质量的能力。 (三)测评内容和手段的数字化、信息化倾向明显 信息化和数字化是21世纪以来世界科技和文化革命性发展的标志,教育作为科技和文化事业中至关重要的一环,也因为这两者的出现而具有了更丰富的内容、更便捷的手段、更人性化的过程和更精确的反馈。迅速发展的数字化与信息技术对国际基础教育评估也产生了深刻的影响,几乎所有的国际基础教育评估都在近十年内越来越表现出对于电子信息、互联网等现代科学技术的重视,不仅体现在对学生有关理解和操作能力的评估与测量上,也体现在测量手段本身的革新上。比如,PISA 2018在阅读素养的界定中,首次取消了“纸面阅读”的限定,将阅读的载体扩大到了屏显文本以及录音、电影、电视、动画等视觉语言,这意味着我们已经完全进入到一个数字化阅读的时代,新一代的学生必须具备处理数字化信息的技能。[44]从测评手段上来看,PISA在2009年以前全部采用纸笔测试,而在2009年和2012年,部分国家可以选择以计算机为基础的评估载体,而2015年的测试则默认为计算机评估。[45]TIMSS 2019框架中指出,2019年的TIMSS侧重于向E-TIMSS过渡,其数学框架也作出了相应的更新以便同时适用于数字和纸质评估格式。[46]测评手段倾向于基于计算机的线上测评的原因在于,与纸笔测验、人工评级等传统手段相比,信息技术不仅具有公平性、全面性和高效性等明显优势,并且可以监控学生解决问题的思维方式和尝试路径,从而展开更为详尽和科学的过程性评价,[47]同时信息技术的使用增大了抽样规模,这也使得测量结果更加具有代表性和科学性。这一整体趋势的出现既基于现代科技不断发展、电子设备得以普及的物质条件基础,也基于信息数量爆炸式增长、生活和科技节奏不断加快的实际需求。 (四)测评工具趋于多样化和情境化 由于最开始的评价内容主要针对于学生的各项学业成就,所以最初的测评工具大多仅限于单一的测量量表。随着教育研究者对学生能力表现背后原因的深入探查,影响评估结果的因素也被考虑进评估过程中,更多适应性测量工具被应用于评价当中。为得到更加客观的评价结果,NAEP最先开始采用调查问卷的方式收集和分析参评学生、教师和学校等关联信息。PISA和TIMSS也开始在调查学生学业水平之外,通过问卷、访谈等方法搜集学生产生学习效果的背景信息,试图从根源层面对评价结果进行深层次解读,[48]以PISA为例,PISA 2015首次以问卷的形式从多个维度收集分析了参与测试学生的背景信息,比如参与国(地区)学生的生活满意度(Life Satisfaction)、作业焦虑(Schoolwork-related Anxiety)、学校归属感(Sense of Belonging at School)、旷课(Student Truancy)等方面。[49]学生所处的社会、文化、经济背景不同,很可能导致其素养和能力发展的差异,二者之间的因果关系,很难在量化数据中得以体现,而更容易从质性资料中被发觉,测量工具的多样化是为了满足这一类信息的收集。 情境理论认为,脱离个体生活的真实情境来谈学习或能力是毫无意义的,个体与环境的相互作用是形成能力以及社会化的必经途径。[50]统筹PISA项目的OECD在“素养界定与遴选”(Definition and Selection of Competencies:Theoretical and Conceptual Foundation,简称DeSeCo)项目中指出:传统的教学以知识点的掌握为核心,忽视知识学习过程中真实情境的创设和知识应用于真实情境的问题解决能力的培养,不能有效培养学生的核心素养。对于实际解决问题能力的看重,使得真实情境的创设越来越成为国际基础教育评估测量项目的统一取向。PISA在新增的财经素养、协作解决问题能力以及全球胜任力测评中,都特别强调任务情境的真实性,还会指定学生在情境中的角色,[51]力求真正获得学生在社会化和全球化背景下的相关能力。NAEP的数学试题也更加强调问题来自学生的现实生活,并且其试题情境来源十分广泛,个人生活情境、社会生活情境、职业情境和科学情境都有可能成为测试项目的背景。[52] 三、对我国基础教育质量监测的启示 三大国际基础教育质量评估体系在某些方面表现出的一致倾向和变化,昭示了国际基础教育质量监测目标要求的新动向。我国自全面开展基础教育课程改革、提出培养“全面发展的人”等政策与理念以来,[53]就将基础教育质量的监测提升到更重要的高度。但由于评价对象的多样性和复杂性、评价内容的宽泛性,以及评价手段的不断更迭和精细,教育质量评估始终处于动态和不断发展中,因此对于我国基础教育质量监测发展而言,需要重视国际评估项目的影响和启示。 (一)在监测中体现全面发展要求,促进立德树人根本任务的落实 PISA创始人安德烈亚斯·施莱歇在其著作中认为,在当下的时代,学校所学的知识不足以应用一生,故教育就是要为人们提供可靠的导航,以帮助人们在日益复杂的世界中找到自己的出路。[55]OECD于2018年4月在其官网发布《教育与技能的未来:教育2030》(The Future of Education and Skills Education 2030,简称《教育2030》),该倡议提出教育和教育者的共同愿景是帮助每一个学习者整体发展、发挥潜力,并塑造一个建立在个人、社区和地球福祉基础上的共同未来。[56]我国在20世纪末就已经提出要“深化教育改革,全面推进素质教育”的理念,随后相关改革尝试也在不断进行。2014年4月,教育部印发的《关于全面深化课程改革落实立德树人根本任务的意见》明确指出,全面深化课程改革,整体构建符合教育规律、体现时代特征、具有中国特色的人才培养体系,建立健全综合协调、充满活力的育人体制机制,是提高国民素质、建设人力资源强国的战略行动。[57]在该意见的指导下,核心素养研究课题组于2016年9月发布了《中国学生发展核心素养》,提出中国学生发展核心素养框架。以培养“全面发展的人”为核心,包含文化基础、自主发展、社会参与三个方面,综合表现为六大素养,具体细化为18个基本要点。[58]2018年1月颁布的修订后的普通高中各个学科的课程标准均构建了学生经历本学科的学习之后逐渐发展的学科核心素养,包括正确的价值观念、必备品格和关键能力。2019年1月,义务教育课程修订启动会在京召开,提出义务教育课程改革还需着力实现课程的通适性、基础性和全面性。这一系列改革与举措,是从培养目标及课程等方面对基础教育阶段人的全面发展的落实。 需要注意的是,教育质量监测对教育本身具有反馈、监控和导向功能,在重大测评中适当体现教育理念有助于其推广和落实。因此,为进一步落实立德树人这一教育的根本任务,促进人的全面发展,我国的基础教育质量监测宜进一步增强对学生综合能力的考查,以此唤醒一线教育者对我国基础教育课程改革的充分理解和贯彻,促进发展学生应具备的适应终身发展和社会发展需要的正确的价值观念、必备品格和关键能力。 (二)创设情境化的测试任务,检测和评价学生的核心素养水平 为应对新的时代挑战,各国结合自身社会和教育发展需求纷纷提出了面向21世纪的核心素养,强调要培养学生利用学科知识解决真实情境下的实际问题的能力。[59]OECD《教育2030》中提出,解决在特定社会、文化、公民、道德、经济和环境背景下的具体问题的能力,才是未来社会所需的变革素养的重要组成部分。而这些能力和素养,通常通过解决实际问题来发展。[60]故正如上文中所指出的,PISA、TIMSS、NAEP等国际基础教育质量评测的测试任务越来越倾向于创设情境化的测试任务。2018年1月,我国教育部颁布的《普通高中课程方案(2017年版)》提出“围绕核心素养开展教育与评价”,并阐释了情境对发展学生核心素养的重要价值。[61]同期发布的各个学科课程标准分别讨论了“素养”、“情境”和“学科内容”之间的关系,给出从测试内容、具体任务和试题情境三方面设计考题来测试学科核心素养发展水平的建议。2019年6月11日,国务院办公厅发布的《关于新时代推进普通高中育人方式改革的指导意见》提到“深化考试命题改革”,加强设计以生活实际为情境背景的试题。[62] (三)重视教育评价的全面功能,理性看待评价结果 需要警惕的是,有时教育评价最终的数据结果不一定能展现真实、全面的情况,反而有掩盖和埋藏问题的风险。例如,继2009年首次参与PISA取得阅读、数学和科学素养均位列第一的优异成绩后,上海在2012年的PISA测试中再次夺冠。但OECD的评估报告显示,上海学生平均每周做作业时间为13.8小时,位列参与评测的国家或地区的第一位;[64]每周参加数学课外补习的时间则普遍为2~4小时(均值为2.02小时)。[65]由此可见,上海中学生投入到学习中的精力和时间成本相当庞大,这是否挤占他们身体素质锻炼等其他活动时间并带来负面影响仍需探讨。在PISA 2015财经素养的测评中,我国四省市联合体也一举摘得桂冠,但这恐怕远不能代表我国青少年财经素养的整体水平,毕竟事实是,对于我国大部分地区来说该项教育仍是空白。[66]再如2018年,我国由北京、上海、杭州和江苏四省市组成的联合体再度在PISA测试中夺魁。但OECD在其结果报告中指出,当中国四省市的学生面对涉及到改善社会和情感的考察以及对学生幸福感的衡量等项目时,与表现优异的国家还有很大差距。[67]实际上,在国际上也不乏提出理性看待国际基础教育质量评测结果的声音,比如2014年瑞典教育家安德鲁斯(Andrews)等人针对芬兰在PISA测验中的成功所指出的,“我们要提醒那些有意从事政策借鉴的人,不要想当然地认为PISA的成功就意味着教育教学的高质量”。[68] 这些问题的存在印证了我们对于教育评价的功能应该具有更全面的认识,对于教育评价结果的分析和利用也应该更加客观。基于国际基础教育评估结果对政策进行调整时,必须考虑这些数据的代表性以及这些研究的局限性。对于最终教育质量的评价,应建立在衡量学习效率的基础上。要发挥利用评价对于教育教学的反馈作用,引导我们的学生把注意力从“更多的学习时间”转移到“高质量的学习时间”。[69] (四)利用新兴科学技术,增加评价的效度与信度 基于纸笔测试的传统测量具有操作成本低、适应范围广、公平度相对较好等显著优点,在信息技术广泛应用之前一直是教育测量的主流方式。但随着智能化的发展,数字世界在现实世界中的占比正在逐步扩大,不能在信息世界中自我导航的人可能无法充分参与未来的社会、经济和文化生活。[70]与此同时,基于新兴科学技术的测评手段的优势也不断显现。计算机能够提供更加高效、便捷的评估,人工智能赋分也比人工评级更具有科学性。更重要的是,基于信息评估的大数据能够提供空前庞大的数据支撑和空前快速的数据处理,这对于基础教育评价来说无比重要,因为样本占总体的比例越高,评价结果就越具有可靠性。快速发展的电子信息技术,赋予了这一切的可能性。我国教育研究者其实已经开始了相关尝试,也取得了一定的成果。譬如教育部基础教育质量检测中心开展的建立教育云平台,实现监测过程的在线化;利用计算机信息技术对音乐、作文、体育等领域进行评估;建立教学过程与教学资源使用的信息采集系统等项目。[71]但对于庞大的中国基础教育体系而言,这些尝试仍然因为使用范围的狭小而显得单薄和微弱。如何在接下来的教育评估中在更大范围内进一步发挥现代科技的显著优势,将是相关研究者们的下一个重要课题。 参考文献: [1][55]安德烈亚斯·施莱歇,等.教育要面向学生的未来,而不是我们的过去[J].全球教育展望,2018,(2):3-18. [2]王晓辉.法国:民主社会需要什么样的教育[N].中国教育报.2005-11-18(8). [3]教育部基础教育质量监测中心.中国义务教育质量监测报告[R/OL].(2018-07-25)[2019-02-16].http://www.eachina.org.cn/shtml/4/news/201807/1749.shtml. [4]OECD. PISA 2015 Results(Volume I): Excellence and Equity in Education[M]. [5]OECD. Upcoming-Results from PISA 2018[EB/OL]. (2019-01-05)[2019-03-12]. http://www.oecd.org/pisa/. [6]辛涛,李峰,李凌艳.基础教育质量监测的国际比较[J].北京师范大学学报(社会科学版),2007,(6):5-10. [7][27]马艳华,李文娜,朱行建.国际科学测评中认知领域的历史演进及启示[J].外国中小学教育,2015,(12):51-56. [8][28]Randy E. Bennett. Educational Assessment: What to Watch in a Rapidly Changing World[J]. Educational Measurement: Issues and Practice, 2018, 37(4): 7-15. [9]PHATTHARAMANAT SRITRAKUL(吴美灵).泰国PISA测评研究[D].上海:华东师范大学,2019. [10][18][20]李秀菊.TIMSS 2003-2019科学评估框架的变化、特点与启示[J].外国中小学教育,2018,(5):9-16. [11][13][15]王倩.国外数学评价研究综述[J].教育科学论坛,2018,(19):75-77. [12]江春莲,胡玲.从TIMSS和PISA看国际数学教育评价趋势[J].新课程研究(上旬刊),2013,(1):30-35. [14]刘晓玫,陈娟.PISA与TIMSS中有关数学评价的比较分析[J].外国教育研究,2007,(2):77-80. [16]张胜,康玥媛.TIMSS研究方法的经验与启示——基于对梁贯成教授的深度访谈[J].数学教育学报,2017,(4):72-75. [17][19]廖运章,许天来.TIMSS-A数学测评框架的变化趋势[J].课程·教材·教法,2019,(3):131-136. [21][23][40][52]张迪,王瑞霖,杜宵丰.NAEP 2013数学测评分析框架及试题特点分析[J].教育测量与评价,2018,(3):51-56. [22]孙珂.教育问责背景下的美国国家教育进展评估[J].教育探索,2011,(7):147-149. [24]Lee, J. , Grigg, W. S. , Dion, G. S. . The Nation's Report Card: Mathematics 2007[J]. Education Statistics Quarterly, 2010, (4): 68. [25][29]周红.美国国家教育进展评估体系述评[J].全球教育展望,2004,(8):66-69. [26]NCFS. NAEP Data Collection[EB/OL]. (2008-08-18)[2019-02-23]. http://nces.ed.gov/nationsreport-card/tdw/data_collect-ion/. [30][32][41]OECD. PISA 2018 Draft Analytical Frameworks[EB/OL]. (2016-05-10)[2019-02-25]. http://www.oecd.org/pisa/data/PISA-2018-draft-frameworks.pdf. [31][43][67][70]OECD. PISA 2018 Insights and interpretations[EB/OL]. (2019-12-03)[2019-12-10]. http://www.oecd.org/pisa/PISA-results_ENGLISH.png. [33]National Assessment Governing [34]付雷.美国NAEP学业成就水平描述的变迁及对我国的启示——以八年级科学学科学业评价为例[J].教育测量与评价(理论版),2012,(8):20-23. [35]俞向军,宋乃庆,王雁玲.PISA 2018阅读素养测试内容变化与对我国语文阅读教学的借鉴[J].比较教育研究,2017,(5):5-12. [36]OECD. PISA 2015 Results(Volume v), Collaborative Problem-Solving[EB/OL]. (2017-11-21)[2019-02-18]. http://www.oecd.org/pisa/pisa-2015-results-volume-v-9789264285521-en.htm. [37]OECD. Preparing Our Youth for an Inclusive and Sustainable World. The OECD [38]Andreas Schleicher.PISA的发展趋势[C].北京:第五届教育监测与评估国际研讨会,,2018-10-27. [39]王丽琳.PISA 2018阅读素养框架新动向及其对我国语文教学的启示[J].现代中小学教育,2018,(2):36-41. [42][46]IEA. TIMSS 2019 Assessment Frameworks[EB/OL]. (2017-09-05)[2019-02-18]. http://timssandpirls.bc.edu/timss2019/frameworks/. [44]魏宁.PISA 2018带来的新启示[J].中国信息技术教育,2018,(5):29. [45]杨艳华,等.国际学生评价项目(PISA)及其对我国基础教育的启示[J].遵义师范学院学报,2016,(2):150-154. [47][51]杜盟,杨涛,辛涛.基于计算机的PISA 2015协作问题解决能力测试[J].中国考试,2018,(10):61-64. [48]姜朝晖,马瑶.国际基础教育评价新动向——以PISA,PIRLS,TIMSS为例[J].世界教育信息,2015,(19):49-53. [49]OECD. PISA 2015 Result: Students' well-being[EB/OL]. (2017-04-19)[2019-02-20]. http://www.oecd.org/pisa/Publications/pisa-2015-results-volume-iii-9789264273856-en.htm. [50]王梅.PISA阅读情境设置对中职语文学业水平考试的启示[J].江苏教育研究,2018,(36):14-16. [53][57]中华人民共和国教育部.关于全面深化课程改革,落实立德树人根本任务的意见[EB/OL].(2014-03-30)[2019-02-25].http://old.moe.gov.cn/publicfiles/business/htmlfiles/moe/s7054/201404/167226.html. [54]王云生.“教、学、评”一体化的内涵与实施的探索[J].化学教学,2019,(5):8-10. [56][60]OECD. The Future of Education and Skills Education 2030[EB/OL].(2018-04-05)[2019-11-22].http://www.oecd.org/education/2030/oecd-education-2030-position-paper.pdf. [58]核心素养研究课题组.中国学生发展核心素养[J].中国教育学刊,2016,(10):1-3. [59]刘晟,等.21世纪核心素养教育的课程、教学与评价[J].华东师范大学学报(教育科学版),2016,(3):38-45. [61]中华人民共和国教育部.普通高中课程方案(2017年版)[Z].北京:人民教育出版社,2018. [62]国务院办公厅.关于新时代推进普通高中育人方式改革的指导意见[EB/OL].(2019-06-11)[2019-07-28].http://www.moe.gov.cn/jyb_xxgk/moe_1777/moe_1778/201906/t20190619_386539.html. [63]中共中央、国务院.关于深化教育教学改革全面提高义务教育质量的意见[EB/OL].(2019-06-23)[2019-07-28].http://www.moe.gov.cn/jyb_xxgk/moe_1777/moe_1778/201907/t20190708_389416.html. [64]何菲,温红博.中学生课外学习时间的合理性研究——基于PISA2012数据[J].外国中小学教育,2017,(9):23-30. [65]薛海平,宋海生.课外补习时间对中学生成绩影响的实证研究——基于PISA2012上海的数据[J].教育科学研究,2018,(4):55-60. [66]安奕,刘浩.PISA财经素养测评对我国财经素养教育的启示[J].中国考试,2018,(10):53-60. [68]Andrews, P. , et al. [69]舒越,盛群力.聚焦核心素养创造幸福生活——OECD学习框架2030研究述要[J].中国电化教育,2019,(3):9-15. [71]辛涛.互联网+基础教育质量监测的进展[C].北京:第五届教育监测与评估国际研讨会,2018-10-27. 作者简介:严文法,陕西师范大学化学化工学院、北京师范大学中国基础教育质量监测协同创新中心陕西师范大学分中心副教授;刘雯,陕西师范大学化学化工学院硕士生;李彦花,陕西师范大学远程教育学院讲师。 |
《外国教育研究》2020年第09期
|
相 关 文 章 | ||
|