摘要 — 为了在这个日益脆弱的世界中保护共同的文化遗产、个人自由和法治,民主国家必须能够在必要时“以机器速度”保卫自己。因此,人工智能在国防中的使用包括负责任的武器交战以及后勤、预测性维护、情报、监视或侦察等军事用例。这就提出了一个永恒的问题:如何根据公认的事实做出正确的决定?为了找到答案,负责任的可控性需要转化为系统工程的三个任务:(1)以人类在心理和情感上能够掌握每种情况的方式设计人工智能自动化。(2)确定技术设计原则,以促进人工智能在国防中的负责任使用。(3) 保证人类决策者始终拥有充分的信息、决策和行动选择优势。这里为防空提出的道德人工智能演示器 (E-AID) 正在铺平道路,让士兵尽可能真实地体验人工智能在瞄准周期中的使用以及相关的压力方面。
该课程的目的和大学的目的更广泛 - 是帮助您发展批判性思维技能,自行思考的能力。当我们进入人工智能时代(如果是我们正在做的话)时,为自己思考并清楚地表达您的想法的能力将比以往任何时候都变得更加重要。在您的学术写作中,您正在与其他人类就主要想法进行对话。我敦促您以自己的想法和自己的声音进行这种对话。写作过程虽然困难且耗时,但可以帮助您完善和澄清想法。本课程为您提供了练习和发展这些基本的批判性思维技能的机会。,如果您依靠聊天机器人来生成想法并为您写论文,则不会从中受益。
● 算法决策缺乏透明度 ● 不法分子利用人工智能做坏事 ● 人工智能系统容易被篡改和出现数据安全问题 ● 系统容易受到偏见 ● 法律跟不上技术的发展 ● 我如何真正信任这些系统?
对 Timnit Gebru 和 Google 道德 AI 团队的支持 过去三年来,加州大学伯克利分校的 AFOG 受益于 Google 道德 AI 团队的几位成员参加我们的工作组会议和研讨会。最近,该团队的联合负责人 Timnit Gebru 博士因要求在她和她的团队成员进行的研究的内部审查过程中提高透明度和程序公平性而被解雇。AFOG 小组的成员研究数字技术在社会中的作用,并寻求建立更好、更公平的系统的方法。数十年来的技术史研究表明,技术不可避免地具有政治性。它们以独特的方式构建和调解人与人之间的关系。虽然数字技术具有巨大的潜在效益,但总有缺点、风险和危害需要考虑。这些风险并非均匀分布,而是经常遵循现有权力等级制度。根据我们在此领域的研究,我们了解到:
罗氏认识到 AI 在生命科学研究和医疗保健领域的潜力,并专注于开发一系列与 AI 相关的解决方案,以部署在医疗环境中(例如支持 AI 的诊断应用程序),用于开发药品(即优化和加速研发),用于不同的科学决策领域,以及合规地实现患者和客户体验的商业应用。目前,AI 没有统一的定义。经合组织将 AI 系统定义为“一种基于机器的系统,出于明确或隐含的目标,从收到的输入中推断如何生成输出,例如预测、内容、建议或决策,这些输出 [可以] 影响物理或虚拟环境。不同的 AI 系统在部署后的自主性和适应性水平上有所不同。”(更多)
1. 了解人工智能的法律和伦理含义,以及它们如何影响社会、组织和个人。 2. 分析人工智能应用和技术对政府、行业和公众等各利益相关者的潜在影响。 3. 批判性地理解人工智能的潜在风险和好处,以及如何在最大化好处的同时降低风险。 4. 了解法律、法规和道德在塑造人工智能发展和使用方面的作用。 5. 了解如何将道德原则和框架应用于人工智能相关的决策。 6. 了解人工智能运行的社会、文化和政治背景,以及这些背景如何影响人工智能的发展和部署。 7. 了解公共政策在规范和塑造人工智能发展和使用方面的作用。 8. 了解研究伦理在人工智能中的作用以及人工智能研究人员的道德责任。 9. 了解不同观点和声音在塑造人工智能发展和使用方面的作用,包括代表性不足的群体和边缘化社区的观点。 10.了解人工智能在促进或阻碍社会公正和平等方面的作用。
