摘要。尽管即使是非常先进的人工系统也无法满足人类成为社会互动适当参与者所需的苛刻条件,但我们认为并非所有人机交互 (HMI) 都可以适当地简化为单纯的工具使用。通过批评标准意向性主体解释的过于苛刻的条件,我们建议采用一种最小方法,将最小主体归因于某些人工系统,从而提出将采取最小联合行动作为社会 HMI 的案例。在分析此类 HMI 时,我们利用了丹尼特的立场认识论,并认为出于多种原因,采取意向性立场或设计立场可能会产生误导,因此我们建议引入一种能够捕捉社会 HMI 的新立场——人工智能立场。
与早期的马克思主义者不同,威廉·赖斯(William Rice)没有通过批评对象对自然的二元论观点来接近人类与自然之间的关系。相反,他提出了人类与自然之间的辩证关系,其特征是“控制”和“服从”。根据赖斯的说法,人类错误源于“控制性质”的概念,他认为这是生态危机的根本原因。赖斯认为,解决生态危机不仅需要停止有害的人类行为,而且还需要挑战和纠正“控制自然”的概念。他强调,人类对自然的态度不仅决定了自然世界的命运,而且决定了人类本身的生存。,要建立人类与自然之间的和谐而互惠的关系,赖斯断言,必须将“控制性质”的概念作为最重要的障碍之一(W U,2018,第63页)。
[1] 2022. 韦氏词典:美国最值得信赖的在线词典。https://www.merriam-webster.com [2] Diego Antognini、Claudiu Musat 和 Boi Faltings。2021. 通过批评与解释互动。第三十届国际人工智能联合会议 IJCAI-21 论文集,周志华(编辑)。国际人工智能联合会议组织,515–521。https://doi.org/10.24963/ijcai.2021/72 主轨道。 [3] Alejandro Barredo Arrieta、Natalia Diaz-Rodriguez、Javier Del Ser、Adrien Bennetot、Siham Tabik、Alberto Barbado、Salvador Garcia、Sergio Gil-Lopez、Daniel Molina、Richard Benjamins、Raja Chatila 和 Francisco Herrera。2020 年。可解释人工智能 (XAI):概念、分类法、机遇和挑战,迈向负责任的人工智能。Inf. Fusion 58 (2020),82–115。[4] Gagan Bansal、Besmira Nushi、Ece Kamar、Walter S. Lasecki、Daniel S. Weld 和 E. Horvitz。2019 年。超越准确性:心智模型在人机团队表现中的作用。在 AAAI 人类计算与众包会议 (HCOMP) 上。 [5] Gagan Bansal、Tongshuang (Sherry) Wu、Joyce Zhou、Raymond Fok、Besmira Nushi、Ece Kamar、Marco Túlio Ribeiro 和 Daniel S. Weld。2021 年。整体是否超过部分?人工智能解释对互补团队绩效的影响。2021 年 CHI 计算机系统人为因素会议论文集 (2021 年)。[6] Pieter J. Beers、Henny PA Boshuizen、Paul A. Kirschner 和 Wim H. Gijselaers。2006 年。共同点、复杂问题和决策。群体决策与谈判 15 (2006),529–556。 [7] Umang Bhatt、Alice Xiang、S. Sharma、Adrian Weller、Ankur Taly、Yunhan Jia、Joydeep Ghosh、Ruchir Puri、José MF Moura 和 P. Eckersley。2020 年。可解释的机器学习在部署中的应用。2020 年公平、问责和透明度会议论文集 (2020 年)。[8] Wayne C Booth、William C Booth、Gregory G Colomb、Gregory G Colomb、Joseph M Williams 和 Joseph M Williams。2003 年。研究的技巧。芝加哥大学出版社。[9] Andrea Brennen。2020 年。当人们说他们想要“可解释的人工智能”时,他们真正想要的是什么?我们询问了 60 位利益相关者。2020 年 CHI 计算系统人为因素会议扩展摘要。1-7。 [10] Zana Buccinca、Phoebe Lin、Krzysztof Z Gajos 和 Elena Leah Glassman。2020 年。代理任务和主观测量可能会在评估可解释的人工智能系统时产生误导。第 25 届智能用户界面 (IUI) 国际会议论文集 (2020 年)。[11] Hao-Fei Cheng、Ruotong Wang、Zheng Zhang、Fiona O'Connell、Terrance Gray、F. Maxwell Harper 和 Haiyi Zhu。2019 年。通过 UI 解释决策算法:帮助非专家利益相关者的策略。在 2019 年 CHI 计算机系统人为因素会议论文集 (英国苏格兰格拉斯哥) 中。美国纽约州纽约,1-12。 https://doi.org/10.1145/3290605.3300789 [12] Erin K. Chiou 和 John D. Lee。2021 年。信任自动化:为响应性和弹性而设计。《人为因素》(2021 年)。[13] Meia Chita-Tegmark、Theresa Law、Nicholas Rabb 和 Matthias Scheutz。2021 年。您可以信任您的信任衡量标准吗?2021 年 ACM/IEEE 人机交互国际会议论文集 (2021),第 92-100 页。https://doi.org/10.1145/3434073.3444677 [14] Jin-Hee Cho、Kevin Chan 和 Sibel Adali。2015 年。信任建模调查。ACM 计算调查 (CSUR) 48,2(2015 年),1-40。[15] Herbert H. Clark。1996 年。使用语言。剑桥大学出版社。[16] David Roxbee Cox。1958 年。实验规划。 (1958 年)。