2020年12月7日至8日,联合国教科文组织、教育部和联合国教科文组织全国委员会共同举办了“人工智能与教育的未来:培养人工智能时代的能力”国际论坛。在《北京共识》(2019)的基础上,与会专家分享了在教育中发挥人工智能作用的政策和做法。尽管这一论坛于两年多前举办,但是在当今新一轮人工智能热潮到来时,其中许多内容依然对我们谋划“教育+AI”具有重要的参考价值。因此,我们选择这一论坛的部分内容来作一个专题分享,共同思考“教育+AI”的相关问题。
随着人工智能逐步普及并成为跨越国界的“热点”,所有国家都需要相互协作,以确保在人类的有效控制下运行人工智,而且是为了人类的共同利益而设计和应用人工智能。特别需要指出的是,人工智能只能被用来增强和延伸人类的能力,而不是取代人,尤其是要必须避免让人成为人工智能工具应用的受害者。要实现这一点,必须要从教育开始。一旦人工智能的能力迈过发展的关键点之后,我们将迎来一个人工智能无处不在的世界,而我们的教育系统则需要确保所有学生都已提前为此做好充足的准备。
但在做这些事情之前,有许多与人工智能相关的复杂挑战需要我们优先关注考虑。比如,与会专家指出,人工智能有可能存在偏见,而这些偏见的来源常常具有相当的隐蔽性。首先,构建模型所依据的人类数据可能是有偏见的,其次,为人工智能开发的算法也可能是有偏见的,甚至一个参数的微小调整就可能会在特殊情况下引发截然相反的决策,尽管这种情况发生的概率足够低那,但是对GPT4这样参数动辄以万亿计的大模型来说,这种情况并不是绝对不会发生的。换句话说,人工智能其实反映的仍然是人的干预与决策。这也意味着我们有必要在这件事情上强化人应当承担的责任和对人工智能应用的控制。假如现在我们面对的是作为一种武器的人工智能,我们就很容易意识到对人工智能应用加以控制的重要性,但是在日常生活或工作中,尤其在教育领域,这一点却常常被有意或无意地忽略。
专家指出,利用人工智能将低技能的任务自动化就隐含着对这一重要性的忽视。最近我们常常听到人工智能会对很多低技能行业造成冲击的观点,并由此产生对这一类低技能的教育教学是否依然有必要的质疑,甚至提出某些低阶知识不需要再学习,某些低阶能力不需要再训练的观点。但如果真的在教育中对这类观点不加选择地实施,很可能会损害学生的认知发展。
根据现在脑科学的研究结论,人的学习并不是单纯的信息输入,学习的过程实际上带来的是神经元连接发生的变化,有时候是建立一些连接,有时候是剪断部分连接,它是脑的物理改变。如果没有低技能任务的教学训练,一部分脑神经网络建立不起来,神经通路就形成不了,则相应的高阶技能也就无法形成。脑科学的研究认为,所谓的“创意”“灵机一动”,是只有在一定规模的、普遍的神经网络基础上,才有可能随机生成的临时性的新通路。因此,专家们强调,我们完全有理由就人工智能如何影响教育教学这个问题设置一定的规范,以避免对一代人造成系统性的损害。
如果我们审视现有的对许多技术所设定的规则就会发现,实际上它们是花了几十年时间才逐步发展完善起来的,但这个过程远远落后于技术本身的发展。如今,这种情况也正发生在人工智能上。专家们认为,人工智能技术的发展之快速,及其可能产生的影响之深广,迫切需要由国家出面制定和颁布一系列的监管措施。我们需要“确保人工智能的设计是负责任的、透明的和可解释的”。这样我们就能知道什么人应当承担什么责任,决策的依据是什么,相关决定又是如何作出的。只有这样我们才可能有效地判断人工智能及其使用是不是符合基本的道德准则和公共利益。
人工智能整个生命周期的源头是“人”,是人工智能的开发者。要监管人工智能,首先需要监管的就是人工智能的开发者,在教育这一公共领域更是如此。因为对于幼小的、年轻的、发展中的头脑,人工智能究竟会产生何种影响,我们其实并不清楚。我们经常看到利用大数据和人工智能构建知识图谱,对学生的学习内容、练习等与知识点、能力点建立泛化的关联,根据每个学生的学习行为、练习完成情况等进行学习资料、练习的“个性化推送”。在这个看似“智能推送”的过程背后,其实是开发者的“推荐策略”的选择,而学习者完全是被动地接受了这样的“推荐策略”。这种“个性化”是外部的,而非内生的,学习者是被动的,缺少了“主体性”,这种个性化只能称作“个别化”,即学生个体被差别地对待。
在这种“个别化”策略支配下,很容易主观地认为一次错误的或失败的学习尝试对学习者的发展是没有用的,从而无视了一个事实,就是某些学习者在某些情况下是通过试错来构建完善的知识体系,对他们来说,每一次“错误”或者“失败”都是有用的、有效的。如果人工智能开发者只认同“个别化”,不提供给学习者更多的选择,那么,这种缺乏学习者主观选择的,看上去是“千人千面”的智能推送,本质上还是“千人一面”,应用在教学中,对个体发展而言未必是件好事。
即使我们不从这些学习科学层面的问题去讨论对人工智能开发者的监管问题,我们也需要从一些基础伦理的角度对人工智能开发者进行监管。比如几年前发生的“注意力头箍”事件,佩戴智能头箍检测注意力的方式就是把小学生当作机器,成为没有主体性的对象,这样的做法违反了基本的伦理。近些年这种显性的“头箍”是看不到了,但是更加隐蔽(比如在人脸识别基础上建立起来的注意力分析)的技术却又在逐渐进入一些“智慧教室”之中,但其中的伦理问题却并没有得到足够的重视。
相反,在智能汽车制造领域对人工智能的应用显得谨慎得多。到目前为止,所有厂商始终强调的是“辅助驾驶”,而不是媒体口中的“自动驾驶”。因为,一旦涉及“自动驾驶”,就意味着车辆在行驶中遇到危急情况时将要代替人来做出类似于经典道德难题——“电车难题”的决策。这种决策可能就意味着对车内或车外的人与动物等的生命、健康权的判定。2016年麻省理工学院还专门建立了一个名为“道德机器(Moral Machine)”的在线实验平台(https://www.moralmachine.net/)。“道德机器”(Moral Machine)被设计为一款多语言的在线“严肃游戏”,用于尽可能地在全世界范围内收集数据,通过了解公民希望自动驾驶汽车在不可避免的事故情况下如何解决道德难题来进行道德偏好的评估。实验结果于2018年10月发表在《自然》杂志网站上。目前这个实验平台依然在运行中,参与者还可以定制多种条件,以模拟各种可能面临的情境和生存概率,丰富实验场景。
由此可见,在对人工智能应用于教育领域进行授权监管之前,需要强有力的伦理学为基础。2021年11月举行的教科文组织大会第41届会议上审议通过的《人工智能伦理问题建议书》在这个领域做了非常有益的工作。
建议书指出,“在采取适当措施降低风险时,人们应有充分理由相信人工智能系统能够带来个人利益和共享利益”,同时强调“在人工智能系统生命周期的任何阶段,任何人或人类社群在身体、经济、社会、政治、文化或精神等任何方面,都不应受到损害或被迫居于从属地位……在人工智能系统的整个生命周期内,人会与人工智能系统展开互动……在这一互动过程中,人绝不应被物化,其尊严不应以其他任何方式受到损害……”。
正如《人工智能伦理问题建议书》反复强调的,对于人工智能的监管应当贯穿于“人工智能系统的整个生命周期内”。如今,GPT4、文心一言、Bard“你方唱罢我登场”,推动人工智能进入教育领域也将迎来新一轮高潮。这也是我们将这一分享专题的第一篇以“监管”为主题的原因。那么,作为教育者,我们还需要思考些什么,做些什么呢?欢迎您留言讨论。
下一篇我们将分享“人工智能与教育的未来:培养人工智能时代的能力”国际论坛中关于人工智能时代教育要为学生准备哪些素养与能力的话题,敬请期待。