在集群上运行 DNN 作业:容器、资源分配、调度论文和系统:KubeFlow、OpenPAI、Gandiva、HiveD
以可持续的方式设计和开发人工智能 (AI) 的需求促使研究人员、机构和组织制定 AI 伦理建议。尽管这些建议涵盖了各种主题并针对不同的受众,但它们都假设 AI 伦理为设计师提供了可应用于其工作的可推广基础。我们认为,当前道德准则的影响力仍然不大的原因之一可能是它们所代表的应用伦理的概念。我们讨论生物伦理作为衡量 AI 伦理中采用的元伦理和方法论方法的参考点,并提出,如果通过采用旨在提高人类行为质量和保障其预期结果的研究领域的工具来丰富资源,AI 伦理可以变得更加方法论扎实,实质上更具影响力。我们认为对此有用的方法是系统理论、安全研究、影响评估方法和变革理论。
在介绍该领域的背景知识(1)之后,本文介绍了主要的争论(2),首先是关于人工智能系统作为对象(即人类制造和使用的工具)时出现的伦理问题;这里的主要部分是隐私(2.1)、操纵(2.2)、不透明性(2.3)、偏见(2.4)、自主性和责任(2.6)和奇点(2.7)。然后我们将人工智能系统视为主体,即当伦理针对人工智能系统本身时,在机器伦理(2.8)中。和人工智能道德机构(2.9)。最后,我们来看看人工智能的未来发展和概念(3)。对于这些主题中的每个部分,我们都提供了道德问题的一般解释,概述了现有的立场和论点,然后分析了这与当前技术如何相互作用,以及最终可能得出哪些政策后果。
摘要。本章重点关注狭义人工智能而非一般人工智能的伦理问题。它为人工智能伦理的讨论提供了实践和哲学依据。它考虑了道德宪章,然后讨论了主要的道德问题:偏见、可解释性、失败责任、无害性、数据的道德使用、人工智能是否应该具有法人资格、对就业和社会的影响以及冒充人类的人工智能。介绍了个人保险中人工智能的案例研究。它为人工智能的监管提供了依据,并讨论了制定监管的挑战。它得出结论,人工智能的好处是如此宝贵,以至于必须管理道德风险,否则由于失去公众信任,这些好处可能会丧失。我们有理由感到乐观,尤其是公众对这些问题的认识、政府的参与以及私人和公共对伦理研究的投资额。
这是美国在人工智能伦理方面必须采取的公共政策方针。本着这种精神,两党政策中心与众议员威尔·赫德 (R-TX) 和罗宾·凯利 (D-IL) 协商,与政府官员、行业代表、民间社会倡导者和学者合作,以更好地了解该国面临的主要人工智能相关伦理挑战。本文希望更清楚地阐明这些挑战,并提出可行的政策建议,帮助指导美国国家人工智能战略。两党政策中心的努力主要是为了补充奥巴马和特朗普政府所做的工作,包括总统巴拉克·奥巴马 2016 年的《国家人工智能研究与发展战略计划》1、唐纳德·特朗普总统宣布美国人工智能计划的第 13859 号行政命令2,以及 OMB 随后的《人工智能应用监管指南》。 3 此项努力还旨在进一步推进凯利和赫德在 2018 年监督和政府改革委员会(信息技术小组委员会)白皮书《机器的崛起:人工智能》中所做的工作
电子邮件:fobregon2012@gmail.com 摘要 该研究的总体目标是确定与人工智能伦理相关的进展。最强大的国家正在向人工智能发展投入大量经济资源。方法论:在这项研究中,选择了 2018 年至 2023 年期间进行的 49 份文件;包括:科学文章、评论文章和来自公认组织网站的信息。结果,人工智能伦理得到了各国的支持。此外,ChatGPT 被认为是学术文件准备自动化的主要威胁。结论:关于该研究的总体目标是确定与人工智能伦理相关的进展,重要的是要考虑应用人工智能的透明度和风险。此外,还要考虑道德方面,例如教科文组织大会第 41 届会议通过了《关于人工智能伦理的建议》。欧盟 (EU) 正在考虑制定一个关于人工智能开发和使用规范的新法律框架。 ChatGPT 是一种人工智能工具,需要仔细评估其对教育和其他人类活动的影响。这项研究的第一个具体目标是确定在人工智能方面投入最多的国家,包括日本、新加坡、中国、印度、俄罗斯、澳大利亚、美国和欧盟。这项研究的第二个具体目标是确定人工智能的风险和要求,风险包括黑箱模型、侵犯隐私、偏见和歧视,要求包括算法透明度、人类可理解的解释、隐私保护算法、数据合作、算法公平性。关键词:道德、人工智能。