摘要 — 为了在这个日益脆弱的世界中保护共同的文化遗产、个人自由和法治,民主国家必须能够在必要时“以机器速度”保卫自己。因此,人工智能在国防中的使用包括负责任的武器交战以及后勤、预测性维护、情报、监视或侦察等军事用例。这就提出了一个永恒的问题:如何根据公认的事实做出正确的决定?为了找到答案,负责任的可控性需要转化为系统工程的三个任务:(1)以人类在心理和情感上能够掌握每种情况的方式设计人工智能自动化。(2)确定技术设计原则,以促进人工智能在国防中的负责任使用。(3) 保证人类决策者始终拥有充分的信息、决策和行动选择优势。这里为防空提出的道德人工智能演示器 (E-AID) 正在铺平道路,让士兵尽可能真实地体验人工智能在瞄准周期中的使用以及相关的压力方面。
在科幻电视剧《星际迷航:原初系列》的“末日决战”一集中,企业号的船员们访问了一对行星,这两颗行星已经进行了 500 多年的计算机模拟战争。为了防止他们的社会被毁灭,这两个星球签署了一项条约,战争将以计算机生成的虚拟结果进行,但伤亡人数将是真实的,名单上的受害者自愿报告被杀。柯克船长摧毁了战争模拟计算机,并受到谴责,因为如果没有计算机来打仗,真正的战争将不可避免。然而,战争持续这么久的原因正是因为模拟使两个社会免受战争的恐怖,因此,他们几乎没有理由结束战争。虽然基于科幻小说,但未来人工智能战场的威胁引发了人们对战争恐怖的道德和实际担忧。驱使各国采用致命自主武器系统 (LAWS) 的逻辑确实很诱人。人类是会犯错的、情绪化的、非理性的;我们可以通过 LAWS 保护我们的士兵和平民。因此,这种推理将 LAWS 构建为本质上理性的、可预测的,甚至是合乎道德的。杀手机器人,尽管名为杀手机器人,实际上会拯救生命。然而,这种逻辑是愚蠢的。如果人工智能战争专注于完善战争手段,而忽视战争的目的,那么它就会存在许多潜在的陷阱。就像在《星际迷航》中一样,无风险战争的诱惑力很强,但它会给那些最终不可避免地被杀死、致残和流离失所的人带来真正的后果。接下来,我认为 LAWS 的前景存在严重的道德问题,而这些问题是先进技术无法解决的。道德不能预先编程以适用于各种情况或冲突,而有意义的人为控制忽视了自动化偏见如何影响决策中的人机交互。军事实体和非政府组织都提出了有意义的人类控制的概念,特别是在致命决策中
2025年1月15日撰写:纳粹·安迪比(Nazanin Andalibi)(密歇根大学),大卫·丹克斯(加利福尼亚大学,圣地亚哥分校),海莉·格里芬(Haley Griffin),海莉·格里芬(计算机研究协会),玛丽·卢·马赫(Mary Lou Maher)(计算机研究协会),杰西卡·麦克莱恩(JESSICA MCCLEARN(GOOGLE),Google)健康),凯蒂·西克(Katie Siek)(印第安纳大学),塔米·托斯科斯(Tammy Toscos)(Parkview Health),Helen V. Wright(计算研究协会)和Pamela Wisniewski(Vanderbilt University)此反应来自计算机研究协会(CRA)的计算社区联合会(CCC)(CCC)和CRA-Industry(CRA-Industry)。CRA是近250个北美计算机研究组织的协会,包括学术和工业,以及来自六个专业计算社会的合作伙伴。CCC的任务是CRA的小组委员会,是为了追求创新的,高影响力的计算研究,与紧迫的国家和全球挑战保持一致。CRA的另一个小组委员会CRA-I的使命是召集行业合作伙伴计算共同利益的研究主题,并将其与CRA的学术和政府选民联系起来,以促进共同利益和改善社会成果。请注意,本材料中表达的任何意见,发现,结论或建议是作者的意见,不一定反映了作者隶属关系的观点。下面我们回答了提出评论请求的问题1-9、11和13-14。
1。过渡团队成员将避免实际和明显的利益冲突。更具体地说,过渡团队成员不得参与他们知道的任何特定过渡事项,可能与成员的财务利益直接冲突,直接家庭成员,合作伙伴,客户或其他个人或其他个人或组织在过去12个月内与之建立了业务关系或有业务关系。即使没有直接冲突,团队成员也会引起总法律顾问的注意,任何可能出现冲突的潜力。在情况下,存在冲突的出现,以至于一个合理的人会质疑过渡小组成员的公正性或得出结论,该成员在特定问题上的工作将破坏公众对过渡团队的信心。
课程大纲 讲师:Kyle Ferguson,环境研究系兼职教授 电子邮箱:kyle.ferguson@nyu.edu 办公室:285 Mercer Street,902 室 虚拟办公室:Zoom(会议 ID:398 318 6573;密码:420026) 办公时间:周一和周三,下午 12:30–1:30 及预约时间 课程网站:纽约大学课程 > 伦理与环境,第 001 节 [ URL ] 课程描述:环境哲学是一门大学科,涉及形而上学、科学哲学和哲学史的问题,也涉及伦理学、美学和政治哲学等规范领域。本课程主要讨论这些规范领域。从价值理论的一些基本概念开始,我们的目标不是找到具体环境问题的明确解决方案,而是 (i) 提高您的批判性思考能力、仔细阅读的能力以及就环境问题进行良好辩论的能力;(ii) 向您介绍环境哲学中的一些主要争议;(iii) 帮助您对正在讨论的问题形成自己理性而清晰的观点。课程材料:
● 考虑到引入的透明度框架,您对 FB 透明度报告的实施有什么疑问?是否还有需要透明化的事情?● 您认为透明度报告有效吗?为什么有效或无效?● 您可以对实施提出哪些批评?● 您认为有哪些设计机会可以改进报告?● 您还想分享哪些其他观察结果?
脑机接口研究中采集的神经数据或实验样本反映了受试者的心理状态、生理健康、人格特质、财富信息等,属于隐私数据。采集数据的范围和人员的访问权限应经伦理委员会批准。应制定适当的处理和管理方案,并根据信息安全管理相关法律法规和技术标准,在数据或样本的采集、存储、使用、处理、传输、发布等全过程中对其进行保护。遵守《中华人民共和国个人信息保护法》《中华人民共和国数据安全法》等法律法规,加强风险监测,防止数据或样本泄露,保障数据安全和受试者的隐私及个人信息安全。
0:00 你好。我的名字是 Jibu Elias,我将谈论文化在人工智能伦理中的作用,特别是从东方文化的角度。在开始之前,我要感谢全球人工智能伦理联盟提供的这个绝佳机会。希望你会喜欢这次讲座。在开始之前,让我先自我介绍一下。我是来自印度的人工智能伦理学家和研究员。我目前是印度政府人工智能倡议 INDIAai 的研究和内容主管。我还是 OECD 专家网络 ONE AI 的成员,也是 Springer 的《人工智能与伦理》期刊的创始成员之一。因此,目前,我的工作重点是建立印度统一的人工智能生态系统,并努力缩小由于人工智能等技术而产生的数字鸿沟。通过本课程,我将带您了解以下几点。首先,我们将从当前情况下人工智能伦理的重要性开始,文化在决定人工智能伦理方面发挥的作用。第三,为什么我们需要在人工智能伦理话语中实现多样性和包容性。第四和第五点是我们可以从东方文化视角的人工智能伦理以及东方哲学方法中学到的东西。