[1] Gagan Bansal、Tongshuang Wu、Joyce Zhou、Raymond Fok、Besmira Nushi、Ece Kamar、Marco Tulio Ribeiro 和 Daniel Weld。2021 年。整体是否超过部分?人工智能解释对互补团队绩效的影响。在 2021 年 CHI 计算机系统人为因素会议论文集。1-16。[2] Zana Buçinca、Maja Barbara Malaya 和 Krzysztof Z Gajos。2021 年。信任还是思考:认知强制函数可以减少人工智能辅助决策对人工智能的过度依赖。ACM 人机交互论文集 5,CSCW1 (2021),1-21。[3] Adrian Bussone、Simone Stumpf 和 Dympna O'Sullivan。 2015.对临床决策支持系统中信任和依赖的解释的作用。 2015年医疗信息学国际会议。 160–169。 [4] Arjun Chandrasekaran、Viraj Prabhu、Deshraj Yadav、Prithvijit Chattopadhyay 和 Devi Parikh。 2018.解释是否能让 VQA 模型对人类来说更具可预测性?在 EMNLP 中。 [5] Muhammad EH Chowdhury、Tawsifur Rahman、Amith Khandakar、Rashid Mazhar、Muhammad Abdul Kadir、Zaid Bin Mahbub、Khandakar Reajul Islam、Muhammad Salman Khan、Atif Iqbal、Nasser Al Emadi 等。 2020.人工智能可以帮助筛查病毒和COVID-19肺炎吗? IEEE Access 8 (2020),132665–132676。[6] Berkeley J Dietvorst、Joseph P Simmons 和 Cade Massey。2015 年。算法厌恶:人们在看到算法错误后会错误地避开它们。《实验心理学杂志:综合》144,1 (2015),114。[7] Mary T Dzindolet、Scott A Peterson、Regina A Pomranky、Linda G Pierce 和 Hall P Beck。2003 年。信任在自动化依赖中的作用。《国际人机研究杂志》58,6 (2003),697–718。[8] Ana Valeria Gonzalez、Gagan Bansal、Angela Fan、Robin Jia、Yashar Mehdad 和 Srinivasan Iyer。2020 年。人类对开放域问答的口头与视觉解释的评估。 arXiv preprint arXiv:2012.15075 (2020)。[9] Patrick Hemmer、Max Schemmer、Michael Vössing 和 Niklas Kühl。2021 年。混合智能系统中的人机互补性:结构化文献综述。PACIS 2021 论文集 (2021)。[10] Robert R Hoffman、Shane T Mueller、Gary Klein 和 Jordan Litman。2018 年。可解释人工智能的指标:挑战与前景。arXiv preprint arXiv:1812.04608 (2018)。
盖茨小,奥罗拉大学;博伊西州立大学汤姆·加蒂克(Tom Gattiker); TEM PLE大学的Mark Gershon;西密歇根大学的达马达·戈尔哈尔(Damodar Golhar);杰克逊维尔州立大学罗伯特·格雷厄姆(Robert Graham);马萨诸塞大学达特茅斯大学的Angappa Gunasekaran; Haresh Gurnani,迈阿密大学;宾夕法尼亚州立大学特里·哈里森(Terry Harrison);东湾的加利福尼亚州立大学的Vishwanath Hegde;佐治亚州立大学克雷格·希尔(Craig Hill);伊利诺伊大学芝加哥大学的吉姆·霍(Jim Ho); Seong Hyun Nam,北达科他州的Uni Cersity;乔纳坦·琼(Jonatan Jelen),慈悲学院;拉萨尔大学Pra Fulla Joglekar; Vijay Kannan,犹他州盖茨小,奥罗拉大学;博伊西州立大学汤姆·加蒂克(Tom Gattiker); TEM PLE大学的Mark Gershon;西密歇根大学的达马达·戈尔哈尔(Damodar Golhar);杰克逊维尔州立大学罗伯特·格雷厄姆(Robert Graham);马萨诸塞大学达特茅斯大学的Angappa Gunasekaran; Haresh Gurnani,迈阿密大学;宾夕法尼亚州立大学特里·哈里森(Terry Harrison);东湾的加利福尼亚州立大学的Vishwanath Hegde;佐治亚州立大学克雷格·希尔(Craig Hill);伊利诺伊大学芝加哥大学的吉姆·霍(Jim Ho); Seong Hyun Nam,北达科他州的Uni Cersity;乔纳坦·琼(Jonatan Jelen),慈悲学院;拉萨尔大学Pra Fulla Joglekar; Vijay Kannan,犹他州
[1] Gagan Bansal、Besmira Nushi、Ece Kamar、Dan Weld、Walter Lasecki 和 Eric Horvitz。2019 年。人机协作团队向后兼容的案例。ICML 人机协作学习研讨会 (2019)。[2] Gagan Bansal、Tongshuang Wu、Joyce Zhou、Raymond Fok、Besmira Nushi、Ece Kamar、Marco Tulio Ribeiro 和 Daniel Weld。2021 年。整体是否超过部分?人工智能解释对互补团队绩效的影响。在 CHI 计算机系统人为因素会议论文集上。1-16。 [3] Umang Bhatt、Javier Antorán、Yunfeng Zhang、Q Vera Liao、Prasanna Sattigeri、Riccardo Fogliato、Gabrielle Gauthier Melançon、Ranganath Krishnan、Jason Stanley、Omesh Tickoo 等人。2020 年。不确定性作为透明度的一种形式:测量、传达和使用不确定性。arXiv 预印本 arXiv:2011.07586 (2020)。[4] Zana Buçinca、Maja Barbara Malaya 和 Krzysztof Z Gajos。2021 年。信任还是思考:认知强制函数可以减少人工智能辅助决策对人工智能的过度依赖。ACM 人机交互论文集 5,CSCW1 (2021),1-21。 [5] Rich Caruana、Yin Lou、Johannes Gehrke、Paul Koch、Marc Sturm 和 Noemie Elhadad。2015 年。医疗保健的可理解模型:预测肺炎风险和 30 天内住院率。第 21 届 ACM SIGKDD 国际知识发现和数据挖掘会议论文集。1721–1730。[6] R Dennis Cook。1986 年。局部影响力评估。皇家统计学会杂志:B 系列(方法论)48,2(1986 年),133–155。[7] Maria De-Arteaga、Artur Dubrawski 和 Alexandra Chouldechova。2021 年。利用专家一致性改进算法决策支持。arXiv 预印本 arXiv:2101.09648(2021 年)。 [8] Maria De-Arteaga、Riccardo Fogliato 和 Alexandra Chouldechova。2020 年。《人机交互案例:在存在错误算法评分的情况下做出决策》。2020 年 CHI 计算机系统人为因素会议论文集。1-12。[9] Berkeley J Dietvorst、Joseph P Simmons 和 Cade Massey。2015 年。《算法厌恶:人们在发现算法错误后会错误地避开算法》。《实验心理学杂志:综合》144, 1 (2015),114。[10] Kelwin Fernandes、Jaime S Cardoso 和 Jessica Fernandes。2017 年。《具有部分可观测性的迁移学习应用于宫颈癌筛查》。《伊比利亚模式识别与图像分析会议》。Springer,243-250。 [11] Yarin Gal 和 Zoubin Ghahramani。2016 年。Dropout 作为贝叶斯近似:表示深度学习中的模型不确定性。在国际机器学习会议 (ICML) 中。1050–1059。[12] Ruijiang Gao、Maytal Saar-Tsechansky、Maria De-Arteaga、Ligong Han、Min Kyung Lee 和 Matthew Lease。2021 年。通过 Bandit 反馈实现人机协作。IJCAI (2021)。[13] Pang Wei Koh 和 Percy Liang。2017 年。通过影响函数理解黑盒预测。在第 34 届国际机器学习会议论文集-第 70 卷中。JMLR。org,1885–1894 年。[14] Himabindu Lakkaraju、Jon Kleinberg、Jure Leskovec、Jens Ludwig 和 Sendhil Mullainathan。2017 年。选择性标签问题:在存在不可观测因素的情况下评估算法预测。第 23 届 ACM SIGKDD 国际知识发现与数据挖掘会议论文集。ACM,275–284。
摘要:在教育行业,人工智能通过改变学习方式带来了革命。学习变得更加个性化,对学习者来说也更加方便。人工智能有望通过不同的个性化应用对教育产生创新影响。每个学生将通过人工智能代理获得更多的学习时间。人工智能可以改变学习者的学习方式和招聘流程。人工智能可以使学习和招聘流程自动化,从而使结果更加具体、准确和快捷。本文分析了人工智能对学习者、机构和招聘人员的影响。本研究将研究人工智能给教学、教育机构和招聘带来的变化。本文探讨了人工智能对教育和招聘带来的挑战。本研究将为学习者、机构和招聘人员提供有见地的信息,并为学术体系建设提供详细的知识。 关键词:人工智能、人工智能代理、教育机构、招聘、个性化应用 1.引言 人工智能在教育行业发挥着重要作用。它对教育机构、学生、教师有帮助,也有助于校园招聘。人工智能使机器能够收集、存储、分类、管理和分析从各种来源收到的数据。这些数据可用于多种用途,从提供常见问题的解决方案到根据学生的需求为他们创建教程。教育机构始终需要强大的数据分析和预测分析工具来协助他们开展各种学术和管理活动。人工智能在很大程度上填补了这一空白。另一方面,学生在获取完成学习所需的课程和笔记方面面临问题。人工智能为学生提供了各种平台,以便轻松访问课程和学习材料。它让他们能够轻松舒适地访问所需的学习材料,也帮助他们按照自己的节奏完成学习。人工智能改变了教育系统对教师和学生的工作方式。2. 文献综述 Wilton WT Fok 等人 (2018) 提出了一种基于深度学习并使用 TensorFlow 引擎开发的模型。该模型通过分析学生的学术和非学术参数对他们进行分类,以预测他们的学位课程。关联规则和决策树技术主要用于预测。该模型使用了 2000 名学生的数据,准确率在 80% 到 91% 之间。Anbukarasi V 和 A. John Martin (2019) 使用 Weka 工具在数据集上应用了九种机器学习程序。从 1100 名学生那里收集数据来建立和测试该模型。本文得出结论,与剩余算法相比,J48、RF、贝叶斯网络和 REPTree 算法的准确度最高。Navyashree SL 等人 (2019) 对多种机器学习技术进行了比较研究,以预测安置情况。本研究使用了来自安置部门的二手数据。在研究了各种类型的监督、无监督、强化机器学习技术之后,作者得出结论:SVM 和贝叶斯信念网络是最佳的安置预测算法。Mehdi Mohammadi 等人 (2019) 使用 KNN、决策树和朴素贝叶斯数据挖掘算法来预测学生的表现。决策树、KNN 和朴素贝叶斯学习程序应用于数据集。KNN 的准确率为 0.5464%。决策树的准确率为 0.5325%。朴素贝叶斯算法的准确率为 0.4616%。作者得出结论,与其他两种预测学生 GPA 的算法相比,KNN 算法具有最好的准确度。
[1] 2022. 韦氏词典:美国最值得信赖的在线词典。https://www.merriam-webster.com [2] Diego Antognini、Claudiu Musat 和 Boi Faltings。2021. 通过批评与解释互动。第三十届国际人工智能联合会议 IJCAI-21 论文集,周志华(编辑)。国际人工智能联合会议组织,515–521。https://doi.org/10.24963/ijcai.2021/72 主轨道。 [3] Alejandro Barredo Arrieta、Natalia Diaz-Rodriguez、Javier Del Ser、Adrien Bennetot、Siham Tabik、Alberto Barbado、Salvador Garcia、Sergio Gil-Lopez、Daniel Molina、Richard Benjamins、Raja Chatila 和 Francisco Herrera。2020 年。可解释人工智能 (XAI):概念、分类法、机遇和挑战,迈向负责任的人工智能。Inf. Fusion 58 (2020),82–115。[4] Gagan Bansal、Besmira Nushi、Ece Kamar、Walter S. Lasecki、Daniel S. Weld 和 E. Horvitz。2019 年。超越准确性:心智模型在人机团队表现中的作用。在 AAAI 人类计算与众包会议 (HCOMP) 上。 [5] Gagan Bansal、Tongshuang (Sherry) Wu、Joyce Zhou、Raymond Fok、Besmira Nushi、Ece Kamar、Marco Túlio Ribeiro 和 Daniel S. Weld。2021 年。整体是否超过部分?人工智能解释对互补团队绩效的影响。2021 年 CHI 计算机系统人为因素会议论文集 (2021 年)。[6] Pieter J. Beers、Henny PA Boshuizen、Paul A. Kirschner 和 Wim H. Gijselaers。2006 年。共同点、复杂问题和决策。群体决策与谈判 15 (2006),529–556。 [7] Umang Bhatt、Alice Xiang、S. Sharma、Adrian Weller、Ankur Taly、Yunhan Jia、Joydeep Ghosh、Ruchir Puri、José MF Moura 和 P. Eckersley。2020 年。可解释的机器学习在部署中的应用。2020 年公平、问责和透明度会议论文集 (2020 年)。[8] Wayne C Booth、William C Booth、Gregory G Colomb、Gregory G Colomb、Joseph M Williams 和 Joseph M Williams。2003 年。研究的技巧。芝加哥大学出版社。[9] Andrea Brennen。2020 年。当人们说他们想要“可解释的人工智能”时,他们真正想要的是什么?我们询问了 60 位利益相关者。2020 年 CHI 计算系统人为因素会议扩展摘要。1-7。 [10] Zana Buccinca、Phoebe Lin、Krzysztof Z Gajos 和 Elena Leah Glassman。2020 年。代理任务和主观测量可能会在评估可解释的人工智能系统时产生误导。第 25 届智能用户界面 (IUI) 国际会议论文集 (2020 年)。[11] Hao-Fei Cheng、Ruotong Wang、Zheng Zhang、Fiona O'Connell、Terrance Gray、F. Maxwell Harper 和 Haiyi Zhu。2019 年。通过 UI 解释决策算法:帮助非专家利益相关者的策略。在 2019 年 CHI 计算机系统人为因素会议论文集 (英国苏格兰格拉斯哥) 中。美国纽约州纽约,1-12。 https://doi.org/10.1145/3290605.3300789 [12] Erin K. Chiou 和 John D. Lee。2021 年。信任自动化:为响应性和弹性而设计。《人为因素》(2021 年)。[13] Meia Chita-Tegmark、Theresa Law、Nicholas Rabb 和 Matthias Scheutz。2021 年。您可以信任您的信任衡量标准吗?2021 年 ACM/IEEE 人机交互国际会议论文集 (2021),第 92-100 页。https://doi.org/10.1145/3434073.3444677 [14] Jin-Hee Cho、Kevin Chan 和 Sibel Adali。2015 年。信任建模调查。ACM 计算调查 (CSUR) 48,2(2015 年),1-40。[15] Herbert H. Clark。1996 年。使用语言。剑桥大学出版社。[16] David Roxbee Cox。1958 年。实验规划。 (1958 年)。