坐在演讲第一排是什么体验?本文将带你重回现场,完整了解南京师范大学郭良菁副教授,在江苏省学前教育学会数字化专业委员会2025年度学术年会上进行的主旨发言。文章约1万字,阅读12分钟,经郭教授审阅后同意,与正在数字时代开展幼教工作的你分享。
核心摘要
1. 回顾人工智能的核心理念,明确“智能”的定义,建立基于理解的审慎使用观。
2. 辨析幼教领域“AI赋能”的不同意图,探讨可行性并厘清“赋能”的应有之义。
3. 探讨当前AI在儿童观察评价等环节的能力边界,结合前沿观点说明现有局限性。
4. 回归教育本真,聚焦教育者自身智能的提升,强调教师价值与技术角色的合理区分。
引言部分
很高兴有这个机会来跟大家探讨与AI赋能幼儿教育相关的一些问题,特别是当前大家关注的一个关键点——儿童观察评价。
现在很多幼儿园把儿童观察评价当成一项新要求,但又不知该如何入手,于是希望借助技术来代替自己完成这项工作。我今天主要就讲一下,这个逻辑本身是否需要反思?
特别是在当前各行各业都掀AI应用潮流的大背景下——因为AI是一项新技术,况且国家也将其视为一项国策,大家都在思考如何用AI赋能各行各业。
在我们幼教领域,面对这样的大潮,我们应以何种态度去思考这些问题?包括我们应如何了解,或者说真正深入地理解AI赋能的可能性与边界到底在什么地方?
我今天会着重讲以下四个问题:
Q1
第一个,我们会花一点时间回顾从事人工智能开发的科学家是怎么定义“智能”和“人工智能”的。有了这个背景,我们或许能对人工智能的应用有一个基本的认识,而不是因为“大家都在用,所以我也要用”,或者因为教育局倡导,就必须在所有环节铺开。这样我们才能避免形成一种鲁莽的态度,而是基于对人工智能的基本认识来使用它,不至于越界或犯下偏颇的错误。
Q2
第二,我想讲一下,在幼教这个行业情境下,“AI赋能”可能有几种意图。有些意图可能比较现实、可行或理智,而另一些意图则可能超越了理性——即我们给AI提出了它目前、甚至未来几十年内都无法达到的要求。此外,赋能不是让人变得越来越笨,“赋能”这个词本身该如何理解?
Q3
第三,我会特别围绕我们幼教中的儿童观察评价这一块,引用AI研发科学家的观点,审视AI到底有什么能力,还没有什么能力?
Q4
最后,我想回到第一个问题:我们不要忘记,除了AI(人工智能),人也有智能。我们教师自身的智能有没有被尊重和提升?这可能是我们幼教人或教育界、特别是教育决策者更应该关注的。至于开发或应用,更多是技术人员需要操心的事。
如果我们做教育的人不把这个根本性问题搞清楚,那么本次会议“数智时代下的学前教育改革”这一主题,就可能只被理解为数智技术的应用,而非教育本身的变革。因此,我们如何思考教育本身的变革至关重要。
智能与人工智能的定义
首先看第一个问题。北京通用人工智能研究院院长朱松纯在央视《开讲啦》节目中发表相关论述,其核心是:即使研究人工智能的人,也要回到思考“什么是智能”这一根本问题,而我们做教育的人就更需要搞清楚这一点。
他讲到,人们对智能有着误解,总认为与智能相关的事,是我们平时不会做的才叫智能;而那些我们不费吹灰之力就能做的事,反而不算智能。其实,恰恰是我们人平时都能做的那些事,正说明了智能的存在。
为什么我们觉得它们不难?是因为我们的大脑经过长期进化,大脑结构中就有专门负责这些事的区域,并且通过反复练习变得越来越发达。当你实现了这样的学习成果后,你自然就会觉得这件事不难了。
而这样的智能,恰恰是人工智能(AI)研发中要面对和解决的问题。
如果某件事连人都做不好,或者大部分人都做不好,觉得做不好对生存发展也没有特别大的影响,那它反倒就不在AI开发者的考虑范围内了,因为即使开发出来,也可能没有多少人愿意用。
所以他说,未来无论是硬件还是软件的开发,都要关心那些我们认为“不费劲的”,日常生活中做得最多的、必须要做的事,要针对这些事去开发人工智能。
可能有教师会问:人都会了,还开发人工智能干嘛?
这就涉及到“赋能”的概念。
人虽然会做这些事,但可能觉得很枯燥,或者希望把精力投入到更有意思、更有挑战性的事情上,那如果有一个助手(机器)能帮忙处理这些枯燥或危险的情境,那不是很好吗?这也是科学家在开发人工智能时的逻辑。
因此,以往的机器大多是我们肢体的延伸(如工业化期间发明的各种生产机器),而现在的人工智能,则是希望延伸我们的大脑,使其成为一种能对简单情境或任务进行独立思考与回应、无需人操劳的技术。
虽然人工智能一词很流行,但很多人其实没搞清楚人工智能到底想干什么,于是跟着说,人工智能太神奇了,人做不了的事AI都能做——这已经形成了一种迷思。所以我最开始要理清这一点,这样才能开始去思考人工智能。
开发人工智能的意图
刚才我已提到一点:开发人工智能技术的意图是什么?或者说,我们常挂在嘴边的“AI赋能某某行业”(如医疗、教育),“赋能”究竟意味着什么?这也是我今天辨析的主题。
“赋能”可能有以下几种意图,我大致做了分类:
协助(部分替代)
即某些环节人也能做,但已经形成机械操作了,人不想花太多时间在上面,希望把精力放在创造性工作上,而将枯燥的工作交给机器。
比如说幼儿园教师有很多任务,其中一些是事务性、相对简单但需反复做的事。如果有一个智能机器作为助手处理这些,教师就可以做更有创新性、自己更感兴趣的事。
这通常是技术发展的早期阶段——开发者不是不想完全替代人,而是暂时做不到,所以强调“人机协同”,必须与人配合。
(特定情境中)全替代
技术上达到一定程度,某个行业的所有环节机器都能做。
现在已有这样的行业,例如某些翻译或新闻播音员岗位已被数字人替代。数字播音员可以24小时准确念稿,不会疲劳出错。
一般情况下“人机协同”,但在某些特定情境下,才动用高精尖的人工智能机器全程替代人类。
例如,目前所谓的“自动驾驶”的分级技术就属于此类。
作为行业新手的教师(高水平学习伙伴)
设计一批人工智能机器或程序,作为类似乒乓球陪练或下棋陪练,在虚拟情境中根据新手的情况设置任务,帮助其练习并提升能力。这种赋能要求AI自身必须达到较高水平。
这三种情形带来了什么?
就是我们现在常听到的,各行各业对人工智能有不同的反响:有的行业主要是恐慌,有的则是欢呼与恐慌并存。
但我觉得我们教育行业目前不太明朗:可能有些人欢呼较多,有些人恐慌较多,心理比较复杂。
欢呼者认为,一方面AI可以解放人的体力和脑力,将人从不重要、不喜欢或危险的任务中解放出来,让人有更多闲暇去全面发展。另一方面从行业角度出发,机器不知疲倦,可以提高生产效率。
但也有恐慌或忧虑,主要集中在:
1)赖以谋生的工作岗位被取代;
2)若应用者动机不良,让机器越来越自主甚至失控,后果仍需人来承担;
3)若把握不好度,机器进化的同时,造成一批不做事也能生存的人能力退化。这一点尤其需要我们幼教人思考:现在有些国家已禁止让低龄儿童使用AI(注意:数字产品与AI是两个概念)。
大家不妨想想,有多少幼儿园在用“豆包”等工具让孩子自动生成特定的作品,跨过本该耐心让孩子在生命最初阶段必须经历的动脑动手过程?这些做法必须重新考虑。
AI学者、斯坦福大学教授李飞飞曾指出:当前关于AI的讨论中充斥着夸张、炒作和耸人听闻的描述,往往导致对AI的治理政策被各种误导。也就是说,职位很高的决策者没搞清楚,制定的政策也可能产生误导,这非常值得我们警惕。
最近,教育部教师队伍建设专家指导委员会编制了一份《教师生成式人工智能应用指引(第一版)》,主要面向中小学教师现有的任务构想AI的应用,但幼儿园可以去类比小学。
该《指引》列出了许多应用场景,如助力学习、教学、育人、评价、管理、研究等,希望AI能助力教育,但同时,文件也明确规定了“不能做什么”,为教师设定了使用规范(包括如何使用“豆包”等工具),强化了伦理意识和责任感。它用18个行为事例引导教师什么不能做。
越是我们小年龄的教育阶段越该关注,“AI赋能教育”的探索热情不能让作为初学者的幼儿成为什么都不会的人。
我截取了两方面的规范:一是如何引导学生使用AI;二是教师在收集学生学习过程及个人信息时,不可做什么。大家可自行查阅网络上公布的原文。
这里我想强调:如果只给幼儿示范如何使用AI工具就让幼儿应用它生成作品并展示,恐怕违背了上述所有三条规范。
我们需要仔细审视:对正在形成各种能力和态度的幼儿来说,这种方式究竟是在促进学习,还是在“废掉”其能力?这需要非常谨慎。当然,不同幼儿园的具体做法可能不同,生成作品后教师的后续处理也很关键,这些都需要推敲。
所以,即使大家兴致勃勃地思考如何“赋能”,也需辨析AI到底该怎么用。特别是,我们可能因为对AI了解不足,而将尚未实现的愿景与当前AI能做的事混为一谈,感觉AI什么都能做——这是最大的问题。
因此,在当前时代,我们教育者需要有能力辨析愿景与现实的区别:什么东西其实还没实现?不要盲目跟风、夸大其词。等会儿讲到儿童观察评价时,我会具体说明哪些方面被夸大了。
我的学生曾跑来告诉我:“郭老师,现在AI可以自动生成观察记录分析文本了!”我问她觉得分析得如何,她摇头说:“还没我分析得好呢。”这是一个尚未踏上工作岗位的学生的感受。而很多幼儿园却欢呼雀跃,觉得这东西能自动生成分析。
我们需要了解人工智能技术相比人而言究竟能做什么,还不能做什么。这样,无论是技术开发者向我们宣传时,还是我们自己在思考哪些任务必须由我做、哪些可转交时,都能有基本判断力。
我接触的一些技术开发者苦恼地告诉我:“郭老师,你们幼教界的教师或园长给我们提要求,说‘你们既然开发技术,连这件事都做不出来,还让我们用?’”于是教师们提出的需求,他们只好尽力满足。
这个图景有些荒诞,这也是我今天同意来做这个分享的原因,也是希望大家能冷静下来,想想其中的道理。
即使技术已能实现某些功能,我们也要考虑:这个技术给我们的结果,是否真是教育所需的?对孩子有益吗?对教师的专业发展是有益吗?这也需要谨慎。
人工智能的边界
接下来,我想呈现科学家们实事求是的观点:AI能做什么,不能做什么?
还是引用李飞飞的观点(出自她与黄仁勋等人的访谈):机器的某些能力确实会超越人类智能,但另一些方面尚无法与人类智力相提并论,至少目前不行。
科普中国微信公众号上转发的《这项人类最不起眼的一种能力,却是 AI 永远的短板?》一文中写道:当前AI大模型并不真正理解人类语言,其最核心的缺陷是无法区分事实、知识与信念。在日常生活中这可能问题不大,但在医疗、法律、教育、新闻等高风险领域,若将信念误认为事实或真理,就会犯大错,扭曲决策。
例如,人能区分“我相信小明没有杀人”和“我知道小明没有杀人”这两句话的细微差别(信念与事实),但AI很难做区分。
如果在法律案件中依赖AI,结论可能差之千里。
同样,医疗诊断若完全交给AI,大家敢吗?那我们凭什么认为在教育中,AI就能替代教师自动分析出小朋友的发展情况、学习状况、想法和动机呢?
我偶然看到《今日说法》一期关于“自动驾驶”(实为“辅助驾驶系统”)的节目,标题是“被误解的自动驾驶”。节目中,一名司机酒后驾驶,利用网上买的小装置让AI误以为他的手一直握着方向盘,然后自己坐到副驾驶,让汽车在高速上自动驾驶。虽然没有出事,但被拦下,最终因危险驾驶罪被判刑。
这就是误解技术限度的典型例子——他以为AI能替代他,但责任仍是他的。一名专家指出:所有智能辅助驾驶系统的高级阶段都还在测试中,是愿景而非现实。只有在无人的地方才能试,不可误解为已完全实现。
李飞飞指出:70年代关于人工智能的一些说法,至今仍然适用。技术发展是一个漫长如蜗牛爬的过程。即使最先进的计算机智能算法,若房间着火,它可能仍执着于棋盘上的最优解——也就是说AI无法灵活应对情境。
而情境,正是我们后面讲儿童观察分析时非常重要的要素:对儿童所有行为的理解不能孤立看待,必须置于情境中,而AI目前无法辨识情境中的许多意蕴的。
李飞飞说道:人类拥有更灵活、自然、且具备语境和情境感知的能力,这是人类长期进化的结果。我们自身的思维、情感及对周遭环境的感知,都是当前人工智能尚不具备的能力。
这是今年刚说的,不是几十年前的观点。所以我们要清楚:目前AI的智能尚不能胜任幼儿教育过程中的哪些任务?
由于时间原因且因幼儿教育领域很广,我只就“儿童行为观察分析”这项任务,与大家分享AI目前还做不到什么,其余领域可根据对AI能力的认识,有经验的教师可自行辨别:
对情境和背景的理解力:孩子的同一行为(如某个表情),在不同情境(美工区、户外沙坑、滑梯)下意义可能不同。此外,还有背景信息(如家庭背景带给孩子的过去经验与习惯)。AI通过摄像头观察,若指望它将这些情境背景信息自动生成到观察记录中,目前不现实,更无法将行为置于情境中去理解意义——即理解儿童的意图、动机和想法。当前幼儿园在自主游戏改革背景下,倡议做儿童观察分析的主要目的,正是了解儿童的想法、目的和动机,AI做不了这个。
可能有教师或技术开发者会说:你又不是搞技术的,凭什么说行或不行?
我现在用的正是技术开发者告诉我们的信息。李飞飞在GIF2017极客公园创新大会上的演讲中展示了一张幼儿园场景的图片(有小朋友、成人、滑梯、操场等)。她说:“我们在训练计算机,把人类分析这幅图的可能性投喂给机器,让计算机通过算法提取人类的看法。”她的团队将视觉信息和语言信息结合,训练计算机“看图说话”,这其实类似我们做儿童观察——看到一个场面,分析孩子怎么回事、学习进展如何。
计算机目前能达到什么程度?
最初,根据图片生成的描述“非常傻”(李飞飞原话)且无意义,只是碎片词汇的拼凑。经过训练后,机器能说出“穿粉色衣服的女孩正在蹦跳”这样的句子。再训练,能说一段与图片呈现场景相关的话,如描述物体的颜色、位置、三维结构等。
但李飞飞话锋一转,表明:人从图片中看到的远不止这些,我们看到的是一个非常有意思的故事——这正是观察评价涉及的。我们观察孩子不会说这个这会孩子拿了一个球,那会他把球投到篮筐里了,后面他又捡起这个球……
这样的观察是没有意义的。我们会将信息串联起来推理背后的意味,思考其对教学和幼儿学习的意义。我们知道图中的人是谁、关系如何、情绪怎样、幽默点在哪……这些是计算机远远达不到的。
有趣的是:技术开发者实事求是地认为机器的智能在很多方面不如人,但作为使用者的我们,却未必充分意识到这一点。我经常感到荒诞:我们许多人没有意识到自己作为人拥有这种智能。
例如,一说到儿童观察评价,很多园长和教师就说“我们教师不会”,反而想去教机器。
我这里列了一些个人感想:觉得自己不会,或大多数人都不会,却要求机器会、来帮自己做;自己不会时,也没有动力去思考“我为什么不会?难道学不会吗?”
很少幼儿园有动机去培养教师这方面的能力,很多人总想从外部找一个操作手册或工具,让教师对照就能理解幼儿行为的意义。可惜这经常落空,因为这本身就误解了做这件事的目的,尽管可能得到数据,但往往仍不理解幼儿行为背后的意图和想法。
所以“高质量互动”就成了空谈,但高质量互动的前提是了解互动对象。你连他想干什么都不关心,怎么互动?拿自己的想法强加给幼儿就是高质量互动吗?
很多幼儿园问我:“郭教师,你总强调观察评价,我们学了,也有了评估结果,但怎么用?”从这个问题本身就知道,他们还是没搞清楚做这件事的根本目的,才会困惑。
这整个误解了观察评价过程的性质。它被认为是一项不需要行动者动用自己的头脑和情感(对幼儿的情感)就能掌握的操作流程。于是到处找流程和工具,却不研究“人的社会认知智能”的本质(即理解他人的能力)。我们本就拥有这种智能,但我们不研究、不关心。
今年初有个契机,我写了一篇《珍视教师在形成性评价中的非人造智能》,发表在《幼儿教育》杂志2025年第4期上。我特意用“非人造”这个词,是因为现在一窝蜂讲人造智能多厉害,却一点也不珍视、不尊重、不去发展我们自己的智能。
总结一下:我们要记住AI技术发展的现实是——
计算机视觉的研发尚无法达到捕捉幼儿学习“相关”表现的水平,直接采集的幼儿表现动态数据无法直接转化为“有意义”的语言文本信息,幼儿表现的数据主要仍需由教师提供;
机器要具有“人工智能”所依赖的推理模型,需要模拟人脑处理幼儿表现信息形成判断的认知过程来研发,需要大量教师理解分析幼儿在各种情境中活动表现的案例(高质量数据集)提供给机器学习。
因此,机器若想具备人工智能所依赖的推理模型,它需要向人学习。
但我们行业里有多少人值得机器学习?
我一个学生在美国转读计算机,跟我讲:“郭老师,如果收集3000个高质量的数据集,我就能训练出儿童分析的大语言模型。”
我说:“很抱歉,找不到。别说3000个,300个都很难。”
他说:“那我和幼儿园合作,把教师的文本拿来,你帮我审核变成高质量的呢?”
我说:“我凭什么有资格审核?我不在现场情境,怎能评判他的分析?”
这需要与教师同在情境中,才能去讨论、慢慢形成对儿童行为的理解,哪那么容易通过文本,仅凭你是研究者就能去批阅?
我曾经看到一些幼儿园中让业务园长批阅教师的观察记录,我问:“你们做这个干嘛?你有能力批阅吗?你不在场景里,怎么判断教师分析得如何?”我们的鹤琴幼儿园现在的做法是:所有写的东西不是用来批阅或束之高阁的,而是用来认真讨论的(后面我还会讲)。
幼教界如何尊重与支持
教师自身的“非人造智能”发展
所以我们幼教界当务之急,是需要好好思考如何尊重和支持教师自身“非人造智能”的发展。
虽然现在可能很多人觉得教师水平有限,但水平有限是现实,无可厚非,谁也不是天生就会。关键是,有没有动机去提升?现在很难找到有多少幼儿园在扎扎实实、从内在动机出发做这件事,绝大多数是当成任务应付。
我觉得,我们搞教育的人恐怕先别指望技术,先关心一下自己行业里怎么改革、怎么做好自己的事。技术人员操心技术开发,但我们提的需求若不切实际,反过来又指望机器做我们自己都做不好的事,还想让它做得比我们好——这完全是幻想。
那么,教师真的没有理解他人表现意义的智能吗?
我们从小就在学这件事。我每次讲座都用这张图片(一个婴儿面对穿白大褂的医生或体检人员,婴儿扭头看妈妈)。婴儿不知道面前的人是谁、在干什么,但他有一个法宝:以妈妈作参考。
婴儿认真看着妈妈的脸部状态,这是一个社会认知的学习过程——他想从妈妈那里了解如何理解眼前情境和这个人行为的意义,虽然只是模糊的理解。如果妈妈放松微笑,婴儿会感知到这人没有危险,可能放松甚至和医生互动。随着成长和经验积累,他会逐渐理解“医生”“检查身体”等概念。
这就是社会认知,就是人的智能。我们的大脑有相应的神经生物学基础,但具体能否形成现实能力,需要在社交中不断磨练。
对教师来说,就是在与小朋友打交道中,磨练自己对儿童的理解。所以我们人是有这种智能的。而AI目前连一张静态图片的情境都无法完全理解。
我曾试过:将一张妈妈打开壁橱准备换衣服的照片喂给“豆包”,它给出几种可能性,如:这是个老人,她有可能在换衣服或收拾壁橱,也可能为活动做准备。
这还只是静态照片,视频更不可能。所以现在有很多盲目夸大,我们还是回归常识比较好。
回到我们自身的智能:幼儿园里有没有珍视和支持教师的社会认知能力?我写了一本《社会认知视野中的儿童观察评价》,就是想讲这种能力的本质——儿童观察评价的目的和过程,本质上就是人类的社会认知过程。
我们的大脑有社会认知的生理基础的,但这种能力成为现实,需要在不断学习和磨练,就像机器也需要学习一样。
我常听到的是我们行业内部贬低自己的工作者的素质,常挂嘴边“我们素质差、没这个能力”。这可能部分属实,但说这毫无意义。无论起点如何,要想改变就必须学习,这是简单道理。我们现在有没有给教师支持,或把这件事当件真事去认真对待?这是个问题。
没有任何一个教师不会观察评价——我正好反过来说。现在常说“教师不会”,但教师都会。除非是自闭症儿童(教师队伍里没有吧),我们从小就在学习社会认知,看各种社会情境,怎么可能不会?完全有基础。
难点在于,你了解了一批孩子,又换了一批孩子,所以需要不断重新学习。每遇到陌生人,我们都需在已有经验基础上重新收集信息,渐进地建构对他们的理解和判断。这就像认识物理环境一样,可能会犯错、有认知偏差,但这不奇怪,也无需妄自菲薄。更重要的是反思和修正,通过不断打磨,得到的认识就会日益准确,能力也会得到提升。
所谓“不会”,其实不是不会,而是根本不关心做这件事,觉得没必要。就像前面科学家说的,我们脑子不往这上用,就觉得难。即使有潜在基础,也觉得难。
我们现在的工作环境,很少有珍视和促进教师发挥“评价儿童”智能的氛围,对教师的智能缺乏信心,更多的是苛责而非支持,这是幼教界关于共育工作“操作性”的普遍迷思。
逻辑是这样的:教师素质不高,所以专家要给一个可操作的,像菜谱式的方案,教师按步骤操作即可。
例如,大部分园所坚信没有做园本化、班本化课程的水平,就会选择拿别人的教材变成我们幼儿园可操作的东西,然后让教师去操作。
这是对教师的智能的贬低。因为教师不会,所以不给他们机会去“做中学”,也反映出对老师可能发展的智能不以为意,也缺乏耐心。就像孩子不会自己吃饭所以一直喂,但恰恰因为一直喂,他就一直不会,哪怕他神经系统和肌肉水平已有基础,他依然做不好。
我们回到人工智能的本质:前面提到,我们没进化出来的能力,说明对生存不重要。我们可以换个角度:教师为什么不关心分析儿童的想法、兴趣和学习过程?因为在他的工作环境里不需要——他关心了也没用,该做的事(课程)早已定好。
我们现在管理和课程体系有没有鼓励这种能力的进化?想让教师这方面的能力进步需要什么?这非常关键,需要我们幼教界从根本上思考。
说教师没能力的时候,我们可以换个问题想想:
观察评价幼儿表现是教师工作的刚需吗?有机会“进步”吗?
很多幼儿园说“我们都做了观察评估工作,但怎么利用评估结果?”——这个环节不会用,正说明他连做这件事的目的是什么都没搞清楚,评估结果的用途恰恰就是最初做这件事的目的本身。教师对幼儿及其无边界学习特征的“关心”和“用心”,是启动其自身智能的引擎。若连动机都没有,智能根本不会被调用。
多年前我受邀在一所幼儿园给教师做儿童观察评价的讲座,我刚讲几句,业务园长就说:“郭老师,这些方法我们都知道,你就告诉我们有没有权威的表格,我们填了就能做好。”我说:“很遗憾,没有。”
但从这个需求可看出他的动机——不是为了了解幼儿及其学习。我们要做好观察评价,就要准备好“烧脑”,就是动用自己智能。所以,有选择地感知幼儿表现,试图理解其意义,思考与近期教育工作的关联……这需要综合信息、处理并决策。
这个过程必然受教师已有经验、观念、情绪状态影响,可能出现偏差(我书中分析了好几种,这很正常,我也常有偏差)。正因如此,我们才需要讨论和反思。讨论后的结果还需到班级再检验,在这件事上,没有谁是权威。
教师是能动的:虽然会出现偏差,但可通过与他人(或更擅长者)沟通,反思和修正自己的理解,从而不断提升智能。
但有多少幼儿园用行动“鼓励”教师关注儿童的需求和想法?据我所知,定期或常态化组织教师讨论“如何理解某段视频中孩子的表现、对课程有何意味”的幼儿园,非常少。
因此,我们需要深入理解教师评价智能的运作过程,改造课程管理、教研活动,乃至职前师范教育,将重心放在支持教师作为“学习者”的发展上。
现在总说“支持初学者/行业新手”,但如果幼儿园不在课程管理上给教师提供行动决策的空间,在课程决策中提供共同思考的支持,却指望“技术赋能”——人都还没会,指望技术会、再来教人?这条路还远得很。
对”保教过程、师幼互动、活动设计”的讨论必须基于对特定一组幼儿表现中透露的需求、思路、已知已会、未知不能的个体理解进行集体讨论,不只是按照“普适”的“年龄特征”(或框在某个工具清单中),也不只是局限在单个教师的认知循环中!就像我们希望教师了解儿童怎么想,教研时也要了解教师怎么想,并一起推敲。
现在流行“循证”,但常被误解为:幼儿园中的成年人想做某件事,然后去儿童身上找符合我设想的证据,这不是循证,是给自己找理由。真正的循证是尊重事实,回到儿童活动过程的事实,大家坐下来认真讨论它们对于下一步教育行动的含义。
教师的认知偏差很正常,任何人理解儿童表现都可能犯错,无需苛责。但对认知偏差的觉察和重新推敲,这两件事都不能推给教师单枪匹马去做。因此,支持比贬低更加明智。
这张图片展现的是瑞典医生在诊断时使用人工智能的情景——一位医生面前有多台电脑,同时审核多个人工智能对病人病情的判断。人工智能体能通过海量病历资料(类似我们教育中对儿童的信息积累)进行快速分析,给出初步诊断,但最终由高明的医生监督审核与修正。
这是医学领域对未来人机协同的构想,且已在实践。
那我们幼教呢?
如果我们自己的行业不去发展人的智能,未来这种协同有可能吗?这是需要我们共同思考的问题。
? END ?
声明|本文部分配图截取自郭良菁教授演讲PPT,其原始版权归属原作者所有。我们尊重知识产权,此引用仅限于学术交流目的。若涉及版权问题,请及时联系我们处理。







