摘要 — 为了在这个日益脆弱的世界中保护共同的文化遗产、个人自由和法治,民主国家必须能够在必要时“以机器速度”保卫自己。因此,人工智能在国防中的使用包括负责任的武器交战以及后勤、预测性维护、情报、监视或侦察等军事用例。这就提出了一个永恒的问题:如何根据公认的事实做出正确的决定?为了找到答案,负责任的可控性需要转化为系统工程的三个任务:(1)以人类在心理和情感上能够掌握每种情况的方式设计人工智能自动化。(2)确定技术设计原则,以促进人工智能在国防中的负责任使用。(3) 保证人类决策者始终拥有充分的信息、决策和行动选择优势。这里为防空提出的道德人工智能演示器 (E-AID) 正在铺平道路,让士兵尽可能真实地体验人工智能在瞄准周期中的使用以及相关的压力方面。
密码学长期以来一直是确保通信和保护隐私的工具。但是,其作用超出了技术实施,以涵盖重要的政治和道德方面。由埃里克·休斯(Eric Hughes)于1993年撰写的Cypherpunk宣言[7],强调了加密和拥护者的继承性政治本质,以此作为确保隐私和个人自由的一种手段。同样,菲利普·罗加威(Phillip Rogaway)的[10]工作强调了密码学家的道德责任,尤其是在大规模监视和社会影响的背景下。从根本上讲,密码学可以看作是“武装”群众保护自己的群众的一种手段。1993年的宣言和罗加威的作品强调了两个要点:不信任政府和保护集体数据。这种观点在戴维·乔姆(David Chaum)的思想中得到了回应,他提出了一个依靠强大加密来保护隐私的交易模型。尽管这些想法首次阐明了40多年,但保护社会免受信息滥用的梦想仍然很遥远。Chaum警告:
● 算法决策缺乏透明度 ● 不法分子利用人工智能做坏事 ● 人工智能系统容易被篡改和出现数据安全问题 ● 系统容易受到偏见 ● 法律跟不上技术的发展 ● 我如何真正信任这些系统?
课程大纲 讲师:Kyle Ferguson,环境研究系兼职教授 电子邮箱:kyle.ferguson@nyu.edu 办公室:285 Mercer Street,902 室 虚拟办公室:Zoom(会议 ID:398 318 6573;密码:420026) 办公时间:周一和周三,下午 12:30–1:30 及预约时间 课程网站:纽约大学课程 > 伦理与环境,第 001 节 [ URL ] 课程描述:环境哲学是一门大学科,涉及形而上学、科学哲学和哲学史的问题,也涉及伦理学、美学和政治哲学等规范领域。本课程主要讨论这些规范领域。从价值理论的一些基本概念开始,我们的目标不是找到具体环境问题的明确解决方案,而是 (i) 提高您的批判性思考能力、仔细阅读的能力以及就环境问题进行良好辩论的能力;(ii) 向您介绍环境哲学中的一些主要争议;(iii) 帮助您对正在讨论的问题形成自己理性而清晰的观点。课程材料:
罗氏认识到 AI 在生命科学研究和医疗保健领域的潜力,并专注于开发一系列与 AI 相关的解决方案,以部署在医疗环境中(例如支持 AI 的诊断应用程序),用于开发药品(即优化和加速研发),用于不同的科学决策领域,以及合规地实现患者和客户体验的商业应用。目前,AI 没有统一的定义。经合组织将 AI 系统定义为“一种基于机器的系统,出于明确或隐含的目标,从收到的输入中推断如何生成输出,例如预测、内容、建议或决策,这些输出 [可以] 影响物理或虚拟环境。不同的 AI 系统在部署后的自主性和适应性水平上有所不同。”(更多)
对 Timnit Gebru 和 Google 道德 AI 团队的支持 过去三年来,加州大学伯克利分校的 AFOG 受益于 Google 道德 AI 团队的几位成员参加我们的工作组会议和研讨会。最近,该团队的联合负责人 Timnit Gebru 博士因要求在她和她的团队成员进行的研究的内部审查过程中提高透明度和程序公平性而被解雇。AFOG 小组的成员研究数字技术在社会中的作用,并寻求建立更好、更公平的系统的方法。数十年来的技术史研究表明,技术不可避免地具有政治性。它们以独特的方式构建和调解人与人之间的关系。虽然数字技术具有巨大的潜在效益,但总有缺点、风险和危害需要考虑。这些风险并非均匀分布,而是经常遵循现有权力等级制度。根据我们在此领域的研究,我们了解到:
毫不夸张地说,人工智能正在我们的世界中得到越来越多的应用。尽管人工智能技术还远未发挥其全部潜力,但一些作家展望了遥远的未来,并设想了对人类的各种不同影响。约翰·丹纳赫(John Danaher,2019 年)讨论了人工智能对人类的一种特殊影响,捍卫了人工智能和机器人的崛起将“抑制我们的道德主体性并增加道德耐心的表达”(2019 年,第 133 页)这一论点。丹纳赫对此的论证是,我们的道德耐心的急剧增加将来自人工智能侵入人类道德主体性的三个重要领域:1)工作场所和就业,2)政治、法律和官僚决策,以及 3)休闲和个人活动。这些领域的入侵与机器人崛起的三种趋势相吻合。然而,我认为,丹纳赫基于第一种趋势的论证需要为以下假设提供支持:机器人将寻求某种接管(例如友好接管),以免激起人类的抵抗和行使我们的道德行动。此外,我认为,丹纳赫基于第三种趋势的论证需要为以下重要假设提供支持:大多数人都会屈服于过度依赖人工智能进行个人激励和决策的诱惑。
1. 了解人工智能的法律和伦理含义,以及它们如何影响社会、组织和个人。 2. 分析人工智能应用和技术对政府、行业和公众等各利益相关者的潜在影响。 3. 批判性地理解人工智能的潜在风险和好处,以及如何在最大化好处的同时降低风险。 4. 了解法律、法规和道德在塑造人工智能发展和使用方面的作用。 5. 了解如何将道德原则和框架应用于人工智能相关的决策。 6. 了解人工智能运行的社会、文化和政治背景,以及这些背景如何影响人工智能的发展和部署。 7. 了解公共政策在规范和塑造人工智能发展和使用方面的作用。 8. 了解研究伦理在人工智能中的作用以及人工智能研究人员的道德责任。 9. 了解不同观点和声音在塑造人工智能发展和使用方面的作用,包括代表性不足的群体和边缘化社区的观点。 10.了解人工智能在促进或阻碍社会公正和平等方面的作用。
根据IT行业的最新趋势,并满足对网络安全的新技能和知识的不断增长的需求,EC-Council已开发了经过证明的伦理黑客培训。从入侵者的角度考虑对公司基础设施进行思考的一种非常规的方法是一种极其有效的学习机制,它使眼睛对我们工作的许多经常被忽视的领域睁开了眼睛。尽管这是“入门级”课程,但CEH包含许多材料和实践练习,也涉及它技术上非常高级的方面。
