2024 年 7 月 31 日——A-24 并非针对任何特定项目,而是……反对者错误地声称 A-24 的通过将导致国家批准任何能源项目。
关键词:人工智能伦理、机器伦理、人工智能伦理教育、论证方案、论证图解、明确的伦理主体 1 引言 工程伦理早已被认为是计算机科学教育中的一个重要课题。美国计算机协会最近发布了一份更新的《道德与职业行为准则》,其中包含用于教育的说明性案例研究(https://www.acm.org/code-of-ethics)。在美国工程伦理教育中,最常被引用的教学策略是审查职业道德准则、接触案例研究、讨论或完成有关道德问题的书面作业、应用道德决策过程、接触道德理论以及将道德部分纳入团队项目 [15]。一些用于教授工程和法律伦理的计算机教育程序模拟了基于案例的论证 [14, 19]。最近,人们对让计算机科学专业的学生接触人工智能(AI)的伦理问题产生了兴趣。教学方法包括伦理理论研究、职业道德规范审查、案例研究和科幻小说分析[9, 10, 13]。
作者................................................................................................................................................. 41
在线发布:2024年3月©南卡罗来纳州中层教育协会教育论点是中学跨学科学习的论点以赛亚吉利安大学,南卡罗来纳州aiken iigillian@usca.edu摘要:跨学科教育是一种教学方法,是一种对青少年学习者有益的教学方法。使用这种方法,学生可以将知识从一个主题整合到另一个主题中,并形成对我们所生活的现实世界的整体理解。关键字:青少年大脑,跨学科,互锁学习,人文科学,文科介绍跨学科教育的想法并不是一个新概念,但是已经越来越清楚地表明,这种方法最能满足那些经历快速成长和认知能力的年轻青少年的需求。他们准备用抽象概念来搏斗,并在内容领域建立联系。这些“青少年在许多方面都有多样化”,而这种教学法是帮助满足个人需求并协助他们学习的一种方法(Dore&McMurtrie,2020,p。1)。什么是跨学科教育?世界不仅仅是一门学科。思想在现实世界中相连并彼此融合在一起,激发了一些老师使用跨学科教育学。均匀和种族(2021)描述了他们如何决定尝试一个跨学科的单位来结合科学和历史。他们也提供了学生的观点,说有多少学生说“这更清楚地表明了他们的班级的联系,并使您更容易看到学校的受试者与现实世界的联系方式”(Vish&Race,2021年)。是提供了三个不同的技巧:1)寻找课程重叠的时刻,2)选择一个主题和共享的总结评估,3)为每个学科建立知识和询问(Vish&Race,2021)。偶数和种族提供的技巧对于了解哪些跨学科教育是有用的,并帮助教育者以创新的方式促进了这一过程。互锁学习跨学科学习的功能与在教育中相互链接学习的功能几乎相同。相互链接学习的重点是“连接性,背景和适用性”,这也是跨学科教育的功能(Hendricks,2023)。这三个重点有助于分解信息。青少年总是在问他们何时可能在现实世界中使用信息。
我认为人工智能的出现给微调论证和一般的上帝设计论证带来了新的问题,因为一个基于人工智能的非个人至上设计师,是上帝作为宇宙设计师(或据称不可简化的复杂生物结构设计师等)的一个相关替代方案。当然,像人类这样的个人设计师和非个人设计师(如狭义人工智能系统)之间存在差异,但正如我所说,只有当人类有灵魂时,将上帝视为最高设计师而不是以没有灵魂的人工智能为模型的非个人设计师才更合理。换句话说,只有当实体二元论之类的东西被证明是真实的时候,上帝的微调论证才能成功。从辩证法上讲,这使得微调论证的效果大大降低。
最近,包括 Weld 和 Bansal (2018) 177 在内的多位 HCI 社区成员都认为,对话式解释系统是实现可解释的人机交互的最佳途径。这一建议通常没有支持论据,因此我们着手撰写这篇论文,以阐明对话式可解释人工智能 (XAI) 系统背后的呼声。首先,我们调查了有关人工智能系统对解释的需求以及模型提供解释的能力的研究。其次,我们提出了一系列解释和理解这些解释的障碍,并通过借鉴人机交互、机器学习、认知科学和教育理论的几项研究结果来解释这些障碍。最后,我们考虑到这些障碍来论证对话式解释系统,并提出了一个绿野仙踪 (WoZ) 实验来检验我们的一些假设。
此外,并非所有对AI透明度的担忧都是如此之高。有些担忧也更加脚踏实地。认为AI威胁要加剧当前歧视的人。担心,不透明的AI产生了促进种族主义,性别歧视和其他形式歧视的新方法,以及隐藏这种歧视的新方法。人类将继续以可预测的方式成为种族主义。这将部分归因于不透明的过程,这些过程指导了人类如何做出决定。,但是AI将创造新的种族主义方式。,它将创造新的方式来掩盖种族主义。这将是由于指导AI做出决定的不透明过程。AI可能与人类一样透明,理由是作出决定的原因。,但它的不透明性隐藏了支持和维持人类不透明度不存在的偏见的新方法。解决不透明人工智能中种族偏见的担忧,ZKMG(2019年,第673页)说:
传统上,卫星设计过程侧重于加固和保护航天器免受恶劣的自然太空环境的影响。现在,重点已转移到应对人为威胁和反太空威胁,在更广泛的背景下确保航天器在太空中的生存能力,太空是一个作战领域。最常见的非敌对人为威胁来自在轨卫星解体和碰撞产生的空间碎片。最值得注意的是,2007 年中国反卫星 (ASAT) 试验、2009 年 Cosmos 2251 与 Iridium 33 的碰撞以及 2019 年印度反卫星试验等解体事件产生的碎片促使人们越来越意识到太空行动的竞争性和拥挤性。2 2007 年和 2019 年碎片产生事件的起因、动能反卫星武器和更广泛的反太空武器对美国太空企业构成了日益紧迫的交战威胁。
本文有批判性和建设性的部分。第一部分基于伦理考虑,提出了政治要求:到 2050 年,全球应该暂停合成现象学,严格禁止所有直接针对或故意冒着在后生物载体系统上出现人工意识的风险的研究。第二部分为一个开放式过程奠定了第一个概念基础,目的是逐步完善最初的禁令,将其与一套更加细致、合理、基于证据、并有望在伦理上令人信服的约束条件联系起来。由这一过程定义的系统研究计划可能导致对最初禁令的逐步重新表述。这可能会导致在 2050 年之前废除禁令,在 2050 年之后继续实施严格禁令,或者逐步发展、更加实质性和符合伦理道德地看待我们想要在人工智能系统中实现哪种类型的意识体验(如果有的话)。
大约四十年前(1980 年),美国哲学家约翰·塞尔在他的论文《思想、大脑和程序》(Searle:1980)中发表了他对他所谓的强人工智能(人工智能)论题的著名驳斥,塞尔声称“经过适当编程的计算机确实具有认知状态,程序因此可以解释人类认知”(Searle:1980,417)。正如他所写,塞尔的论文的直接收件人是 R. Shank 和 R. Abelson 的研究(Shank,Abelson:1977,248),他们的作者声称他们设法创建了一个能够理解人类故事含义的计算机程序。例如,关于一个故事:“一个人去一家餐馆点了一个汉堡包;当汉堡包送来时发现它被烧焦了,这个人愤愤不平地离开了餐馆,没有付钱。”问题是:“他吃了汉堡包吗?”“适当”编程的计算机回答很可能没有。在他的文章中,Searle 既没有分析 Shank 和 Abelson 使用的测试计算机的程序,也没有分析他们程序的运行原理。他提出了一个问题,当计算机没有相应的视觉、嗅觉和味觉体验时,是否可能谈论理解,因为计算机无法知道“汉堡包”、“烧焦”等词的含义。正如 Searle 所相信的,Shank 和 Abelson 进行的人工智能研究遵循了 A. Turing 众所周知的测试范式,根据该测试,计算机对“人类答案”的令人满意的模仿与人的合理答案相似。在图灵测试中,扮演专家角色的人以硬拷贝格式提出问题,并以同样的方式从两个他看不见的对话者那里得到答案,其中一个是人,另一个是专门编程的计算机。根据图灵的说法,令人满意地通过测试的标准是,专家在五分钟的调查后,在不超过 70% 的情况下识别出计算机(图灵:1950,441),图灵认为这可以相信计算机具有思考能力。