自量子物理学诞生以来,人类观察者在波函数令人不安的坍缩中扮演着重要角色。对我们的经典直觉的挑战导致了一系列悖论的提出,这主要是由于微观量子现象外推到我们独特的宏观人类经验中。反直觉的思想实验,如著名的薛定谔猫 [ 1 ] 和维格纳的朋友 [ 2 ],说明了假设量子理论的后果在历史上是多么困难 [ 3 ]。此外,人们还对大脑过程中可能存在的量子现象提出了冒险的猜想,特别是在理解人类的自由意志、心智模型、决策和意识方面 [ 4 – 6 ]。从这个意义上说,从硬件和湿件科学的基础到尖端应用,建立人脑和量子计算机 (QC) 之间的更紧密联系在科学和技术上都将具有突破性的意义。然而,我们对大脑、思维以及意识的理解仍然很初级。这使得大脑直接与外部量子设备或量子处理器连接变得困难 [7,8]。然而,在 21 世纪的这个时候,人工智能 (AI) 可能会帮助我们完成这项原本不可能完成的任务。在过去的几十年里,我们可能会找到自下而上的方法来考虑生物特性与量子现象的融合。在量子生物学的情况下,可能的量子特征可能解释光合作用的效率 [9]。此外,人们正在研究神经形态技术以节省能源和增强 AI 应用 [10]。最近,受生物启发的量子人工生命已被提出并在量子计算机中实现[11],而神经形态量子
[26] Jiahao Yu、Xingwei Lin 和 Xinyu Xing。Gptfuzzer:使用自动生成的越狱提示对大型语言模型进行红队测试。arXiv 预印本 arXiv:2309.10253,2023 年。[27] Liangming Pan、Michael Saxon、Wenda Xu、Deepak Nathani、Xinyi Wang 和 William Yang Wang。自动纠正大型语言模型:调查各种自我纠正策略的概况。arXiv 预印本 arXiv:2308.03188,2023 年。[28] Susmit Jha、Sumit Kumar Jha、Patrick Lincoln、Nathaniel D Bastian、Alvaro Velasquez 和 Sandeep Neema。使用形式化方法引导的迭代提示消除大型语言模型的幻觉。2023 年 IEEE 国际保证自主会议 (ICAA),第 149-152 页。 IEEE,2023 年。[29] Jacob Menick、Maja Trebacz、Vladimir Mikulik、John Aslanides、Francis Song、Martin Chadwick、Mia Glaese、Susannah Young、Lucy Campbell-Gillingham、Geoffrey Irving 等人。教授语言模型以支持带有经过验证的引文的答案。arXiv 预印本 arXiv:2203.11147,2022 年。[30] Advait Sarkar。计算机应该易于使用吗?质疑用户界面设计的简单性原则。在 2023 年 CHI 计算机系统人为因素会议的扩展摘要中,第 1-10 页,2023 年。[31] Haiyan Zhao、Hanjie Chen、Fan Yang、Ninghao Liu、Huiqi Deng、Hengyi Cai、Shuaiqiang Wang、Dawei Yin 和 Mengnan Du。大型语言模型的可解释性:一项调查。 arXiv preprint arXiv:2309.01029,2023 年。[32] Todd Kulesza、Simone Stumpf、Margaret Burnett、Sherry Yang、Irwin Kwan 和 Weng-Keen Wong。过多、过少还是恰到好处?解释如何影响最终用户的心智模型。2013 年 IEEE 视觉语言和以人为本的计算研讨会,第 3-10 页。IEEE,2013 年。[33] Elaine Simpson RN 和 Mary Courtney RN。护理教育中的批判性思维:文献综述。国际护理实践杂志,8(2):89–98,2002 年。[34] Robert J Sternberg 和 Diane F Halpern。心理学中的批判性思维。剑桥大学出版社,2020 年。
穆特鲁·库库罗娃 英国伦敦大学学院 摘要 本文从多维度阐述了人工智能在学习和教育中的作用,强调了人工智能、分析和学习过程之间错综复杂的相互作用。在本文中,我对普遍存在的将人工智能狭隘地视为生成性人工智能所体现的随机工具的概念提出质疑,并主张人工智能的其他概念化的重要性。我强调了人类智能与人工智能信息处理之间的差异、人工智能算法固有的“认知多样性”,并假设人工智能也可以作为理解人类学习的工具。早期学习科学和教育中的人工智能研究将人工智能视为人类智能的类比,但两者的观点已经出现分歧,因此需要重新点燃这种联系。本文提出了人工智能在教育中的三种独特概念化:人类认知的外化、人工智能模型的内部化以影响人类心智模型,以及通过紧密集成的人机系统扩展人类认知。本文从当前研究和实践中的例子出发,探讨了这三种概念的实例,强调了每种概念对教育的潜在价值和局限性,以及过分强调外化人类认知的危险。本文认为,人工智能模型可以作为思考学习的对象,尽管学习的某些方面可能只是通过缓慢的学习体验而来,无法用人工智能模型完全解释,也无法通过预测来破解。本文最后提倡在教育中采用更广泛的人工智能方法,这种方法不仅限于考虑设计和开发教育中的人工智能解决方案,还包括教育人们了解人工智能和创新教育系统,以在人工智能无处不在的世界中保持相关性。关键词人工智能、生成式人工智能、学习分析、教育技术、人类认知、教育的未来人类智能与人工智能信息处理人工智能 (AI) 通常被定义为机器对智能的模拟。智能是一个复杂而多方面的概念,涵盖多种能力。它确实包括学习、理解、推理、决策和适应新情况的能力。它超越了通常认为的认知能力,包括情感和社会成分,承认智力不仅关乎一个人思考得有多好,还关乎一个人与世界和他人互动得有多好。智力不仅关乎确定的、脱离语境的、脱离实体的、被简化为各个部分的事物,因此它是可预测和可控制的。它还关乎理解动态的事物。它关乎与不确定性共存和生存的能力,我们所看到的部分在另一个层面上可能确实是整体。今天,我们在教育研究和实践中看到的大多数人工智能都认为
[1] 2022. 韦氏词典:美国最值得信赖的在线词典。https://www.merriam-webster.com [2] Diego Antognini、Claudiu Musat 和 Boi Faltings。2021. 通过批评与解释互动。第三十届国际人工智能联合会议 IJCAI-21 论文集,周志华(编辑)。国际人工智能联合会议组织,515–521。https://doi.org/10.24963/ijcai.2021/72 主轨道。 [3] Alejandro Barredo Arrieta、Natalia Diaz-Rodriguez、Javier Del Ser、Adrien Bennetot、Siham Tabik、Alberto Barbado、Salvador Garcia、Sergio Gil-Lopez、Daniel Molina、Richard Benjamins、Raja Chatila 和 Francisco Herrera。2020 年。可解释人工智能 (XAI):概念、分类法、机遇和挑战,迈向负责任的人工智能。Inf. Fusion 58 (2020),82–115。[4] Gagan Bansal、Besmira Nushi、Ece Kamar、Walter S. Lasecki、Daniel S. Weld 和 E. Horvitz。2019 年。超越准确性:心智模型在人机团队表现中的作用。在 AAAI 人类计算与众包会议 (HCOMP) 上。 [5] Gagan Bansal、Tongshuang (Sherry) Wu、Joyce Zhou、Raymond Fok、Besmira Nushi、Ece Kamar、Marco Túlio Ribeiro 和 Daniel S. Weld。2021 年。整体是否超过部分?人工智能解释对互补团队绩效的影响。2021 年 CHI 计算机系统人为因素会议论文集 (2021 年)。[6] Pieter J. Beers、Henny PA Boshuizen、Paul A. Kirschner 和 Wim H. Gijselaers。2006 年。共同点、复杂问题和决策。群体决策与谈判 15 (2006),529–556。 [7] Umang Bhatt、Alice Xiang、S. Sharma、Adrian Weller、Ankur Taly、Yunhan Jia、Joydeep Ghosh、Ruchir Puri、José MF Moura 和 P. Eckersley。2020 年。可解释的机器学习在部署中的应用。2020 年公平、问责和透明度会议论文集 (2020 年)。[8] Wayne C Booth、William C Booth、Gregory G Colomb、Gregory G Colomb、Joseph M Williams 和 Joseph M Williams。2003 年。研究的技巧。芝加哥大学出版社。[9] Andrea Brennen。2020 年。当人们说他们想要“可解释的人工智能”时,他们真正想要的是什么?我们询问了 60 位利益相关者。2020 年 CHI 计算系统人为因素会议扩展摘要。1-7。 [10] Zana Buccinca、Phoebe Lin、Krzysztof Z Gajos 和 Elena Leah Glassman。2020 年。代理任务和主观测量可能会在评估可解释的人工智能系统时产生误导。第 25 届智能用户界面 (IUI) 国际会议论文集 (2020 年)。[11] Hao-Fei Cheng、Ruotong Wang、Zheng Zhang、Fiona O'Connell、Terrance Gray、F. Maxwell Harper 和 Haiyi Zhu。2019 年。通过 UI 解释决策算法:帮助非专家利益相关者的策略。在 2019 年 CHI 计算机系统人为因素会议论文集 (英国苏格兰格拉斯哥) 中。美国纽约州纽约,1-12。 https://doi.org/10.1145/3290605.3300789 [12] Erin K. Chiou 和 John D. Lee。2021 年。信任自动化:为响应性和弹性而设计。《人为因素》(2021 年)。[13] Meia Chita-Tegmark、Theresa Law、Nicholas Rabb 和 Matthias Scheutz。2021 年。您可以信任您的信任衡量标准吗?2021 年 ACM/IEEE 人机交互国际会议论文集 (2021),第 92-100 页。https://doi.org/10.1145/3434073.3444677 [14] Jin-Hee Cho、Kevin Chan 和 Sibel Adali。2015 年。信任建模调查。ACM 计算调查 (CSUR) 48,2(2015 年),1-40。[15] Herbert H. Clark。1996 年。使用语言。剑桥大学出版社。[16] David Roxbee Cox。1958 年。实验规划。 (1958 年)。