提供此辅修专业的每个学术课程都将在专注于特定学科或领域的学术课程中纳入 AIDA 科目(例如编程、数学、统计学、大数据、人工智能和机器学习)。学生将在正常课程期限内完成学业,并获得相应的学士学位,除了 GUR 科目外,还具备与 AIDA 相关的技术技能,以及专门设计或从相应学术课程中选择的科目领域的知识。将包括一个综合顶点项目 (ICP),旨在培养学生分析和解决复杂和潜在的现实问题的能力,并培养他们与系统开发和记录重要工作相关的技能。
以可持续的方式设计和开发人工智能 (AI) 的需求促使研究人员、机构和组织制定 AI 伦理建议。尽管这些建议涵盖了各种主题并针对不同的受众,但它们都假设 AI 伦理为设计师提供了可应用于其工作的可推广基础。我们认为,当前道德准则的影响力仍然不大的原因之一可能是它们所代表的应用伦理的概念。我们讨论生物伦理作为衡量 AI 伦理中采用的元伦理和方法论方法的参考点,并提出,如果通过采用旨在提高人类行为质量和保障其预期结果的研究领域的工具来丰富资源,AI 伦理可以变得更加方法论扎实,实质上更具影响力。我们认为对此有用的方法是系统理论、安全研究、影响评估方法和变革理论。
在集群上运行 DNN 作业:容器、资源分配、调度论文和系统:KubeFlow、OpenPAI、Gandiva、HiveD
在介绍该领域的背景知识(1)之后,本文介绍了主要的争论(2),首先是关于人工智能系统作为对象(即人类制造和使用的工具)时出现的伦理问题;这里的主要部分是隐私(2.1)、操纵(2.2)、不透明性(2.3)、偏见(2.4)、自主性和责任(2.6)和奇点(2.7)。然后我们将人工智能系统视为主体,即当伦理针对人工智能系统本身时,在机器伦理(2.8)中。和人工智能道德机构(2.9)。最后,我们来看看人工智能的未来发展和概念(3)。对于这些主题中的每个部分,我们都提供了道德问题的一般解释,概述了现有的立场和论点,然后分析了这与当前技术如何相互作用,以及最终可能得出哪些政策后果。
摘要。本章重点关注狭义人工智能而非一般人工智能的伦理问题。它为人工智能伦理的讨论提供了实践和哲学依据。它考虑了道德宪章,然后讨论了主要的道德问题:偏见、可解释性、失败责任、无害性、数据的道德使用、人工智能是否应该具有法人资格、对就业和社会的影响以及冒充人类的人工智能。介绍了个人保险中人工智能的案例研究。它为人工智能的监管提供了依据,并讨论了制定监管的挑战。它得出结论,人工智能的好处是如此宝贵,以至于必须管理道德风险,否则由于失去公众信任,这些好处可能会丧失。我们有理由感到乐观,尤其是公众对这些问题的认识、政府的参与以及私人和公共对伦理研究的投资额。
这是美国在人工智能伦理方面必须采取的公共政策方针。本着这种精神,两党政策中心与众议员威尔·赫德 (R-TX) 和罗宾·凯利 (D-IL) 协商,与政府官员、行业代表、民间社会倡导者和学者合作,以更好地了解该国面临的主要人工智能相关伦理挑战。本文希望更清楚地阐明这些挑战,并提出可行的政策建议,帮助指导美国国家人工智能战略。两党政策中心的努力主要是为了补充奥巴马和特朗普政府所做的工作,包括总统巴拉克·奥巴马 2016 年的《国家人工智能研究与发展战略计划》1、唐纳德·特朗普总统宣布美国人工智能计划的第 13859 号行政命令2,以及 OMB 随后的《人工智能应用监管指南》。 3 此项努力还旨在进一步推进凯利和赫德在 2018 年监督和政府改革委员会(信息技术小组委员会)白皮书《机器的崛起:人工智能》中所做的工作
