0:00 你好。我的名字是 Jibu Elias,我将谈论文化在人工智能伦理中的作用,特别是从东方文化的角度。在开始之前,我要感谢全球人工智能伦理联盟提供的这个绝佳机会。希望你会喜欢这次讲座。在开始之前,让我先自我介绍一下。我是来自印度的人工智能伦理学家和研究员。我目前是印度政府人工智能倡议 INDIAai 的研究和内容主管。我还是 OECD 专家网络 ONE AI 的成员,也是 Springer 的《人工智能与伦理》期刊的创始成员之一。因此,目前,我的工作重点是建立印度统一的人工智能生态系统,并努力缩小由于人工智能等技术而产生的数字鸿沟。通过本课程,我将带您了解以下几点。首先,我们将从当前情况下人工智能伦理的重要性开始,文化在决定人工智能伦理方面发挥的作用。第三,为什么我们需要在人工智能伦理话语中实现多样性和包容性。第四和第五点是我们可以从东方文化视角的人工智能伦理以及东方哲学方法中学到的东西。
鉴于人工智能开发人员在确保人工智能系统、其成果和此类系统用户的责任方面发挥着重要作用,我们需要他们采取负责任、合乎道德和负责任的方法。因此,我们建议这些参与者参与旨在产生负责任的人工智能设计和使用的政策制定过程。根据我们的实证研究结果,我们提出了几项建议,以弥补当前在追求负责任的人工智能时将道德原则、认证标准和解释方法作为问责机制所发现的缺陷。我们希望这些建议能够有助于讨论如何在实践中确保问责制,同时兼顾开发人员、研究人员和公众的观点。
在科幻电视剧《星际迷航:原初系列》的“末日决战”一集中,企业号的船员们访问了一对行星,这两颗行星已经进行了 500 多年的计算机模拟战争。为了防止他们的社会被毁灭,这两个星球签署了一项条约,战争将以计算机生成的虚拟结果进行,但伤亡人数将是真实的,名单上的受害者自愿报告被杀。柯克船长摧毁了战争模拟计算机,并受到谴责,因为如果没有计算机来打仗,真正的战争将不可避免。然而,战争持续这么久的原因正是因为模拟使两个社会免受战争的恐怖,因此,他们几乎没有理由结束战争。虽然基于科幻小说,但未来人工智能战场的威胁引发了人们对战争恐怖的道德和实际担忧。驱使各国采用致命自主武器系统 (LAWS) 的逻辑确实很诱人。人类是会犯错的、情绪化的、非理性的;我们可以通过 LAWS 保护我们的士兵和平民。因此,这种推理将 LAWS 构建为本质上理性的、可预测的,甚至是合乎道德的。杀手机器人,尽管名为杀手机器人,实际上会拯救生命。然而,这种逻辑是愚蠢的。如果人工智能战争专注于完善战争手段,而忽视战争的目的,那么它就会存在许多潜在的陷阱。就像在《星际迷航》中一样,无风险战争的诱惑力很强,但它会给那些最终不可避免地被杀死、致残和流离失所的人带来真正的后果。接下来,我认为 LAWS 的前景存在严重的道德问题,而这些问题是先进技术无法解决的。道德不能预先编程以适用于各种情况或冲突,而有意义的人为控制忽视了自动化偏见如何影响决策中的人机交互。军事实体和非政府组织都提出了有意义的人类控制的概念,特别是在致命决策中
摘要:人工智能 (AI) 结合了算法、机器学习和自然语言处理的应用。AI 在教育领域有多种应用,例如自动评估和面部识别系统、个性化学习工具和微博系统。这些 AI 应用有可能通过支持学生的社交和认知发展来提高教育能力。尽管具有这些优势,但 AI 应用仍存在严重的伦理和社会缺陷,而这些缺陷在 K-12 教育中很少被考虑。将这些算法融入教育可能会加剧社会现有的系统性偏见和歧视,使来自边缘化和服务不足群体的学生的隐私、自主权和监视问题长期存在,并加剧现有的性别和种族偏见。在本文中,我们探讨了 AI 在 K-12 教育中的应用,并强调了它们的道德风险。我们引入教学资源,帮助教育工作者应对整合人工智能的挑战,并提高 K-12 学生对人工智能和道德的理解。本文最后提出了研究建议。
● 文章/视频:人工智能如何推荐视频 [ 链接 ] ● 视频:人工智能、社交媒体和选举 [ 链接 ] ● 视频:人工智能和社交媒体营销 [ 链接 ] ● 文章:人工智能在社交媒体中的利弊 [ 链接 ] ● 文章:视频游戏人工智能的社会和哲学影响 [ 链接 ]
● 考虑到引入的透明度框架,您对 FB 透明度报告的实施有什么疑问?是否还有需要透明化的事情?● 您认为透明度报告有效吗?为什么有效或无效?● 您可以对实施提出哪些批评?● 您认为有哪些设计机会可以改进报告?● 您还想分享哪些其他观察结果?
● 创建工具来指导出版决策:使用基准或第三方专家小组等外部测量可能是公平指导出版决策的关键一步。此类方法可以设定与出版相关的可接受风险水平的一定标准。根据此建议,记录由于其固有风险而被拒绝的论文以及一些相关指标也是恰当的。● 提供页码扩展: 延长已发表论文的页数限制可能会有所帮助,以便研究人员能够包括传统上不会打印的负面结果(无关紧要或反驳研究人员假设的结果)。 除了增加页数外,还应该显著改变围绕负面结果发表的文化。● 建立同行网络:建立同行网络以评估研究人员的人工智能模型的潜在风险和收益,可能是制定更好、更安全的出版规范的重要工具。如果建立这样的机制,评估可以完全或部分基于哲学家约翰·罗尔斯的“无知之幕”。 如果将这个想法应用于审查人工智能研究,可以要求同行评审员从不同的社会角度考虑新人工智能研究的潜在优势和风险。● 要求提供广泛的影响声明: NeurIPS 会议要求提交的论文包括与所提出研究有关的更广泛影响的声明。通过将反思作为在 NeurIPS 上考虑其工作的必要条件,这激励研究人员思考潜在的风险和收益。所有会议和出版物上的类似措施将鼓励研究人员批判性地评估他们的研究对世界产生的积极和消极影响 ● 要求公布预期结果:要求研究人员撰写和公布其研究项目的预期结果(包括但不限于其更广泛的社会和道德影响)有助于在研究人员开展项目之前就潜在的利益和危害进行反思。● 改革同行评审流程:同行评审的完善做法为每位评审员就他们正在修改的论文中看到的风险和利益进行交流提供了绝佳的机会。如果在评审论文时添加了一个问题或要求,可能会迅速产生广泛的影响,促使研究人员考虑他们的研究可能产生的结果。有效的审查流程应在明确、公平和高效的同时,促进风险限制。实现此目的的一种方法是根据同行评审论文所认为的研究风险程度,按比例加强出版要求。
人工智能 (AI) 正在改变企业处理招聘和聘用流程的方式。随着组织越来越多地转向使用 AI 来简化招聘流程,围绕其使用的道德考虑变得越来越重要。虽然 AI 可以提供减少偏见和提高效率等好处,但它也引发了对隐私、公平和问责制的担忧。本研究论文的目的是探讨在招聘过程中使用 AI 的道德考虑,并确定确保合乎道德的 AI 招聘实践的最佳实践。AI 是指开发可以执行通常需要人类智能的任务(例如决策和解决问题)的计算机系统。在招聘方面,AI 算法可用于扫描简历、进行就业前评估和分析视频面试以识别潜在候选人。AI 有可能通过识别高质量候选人并减少招聘所需的时间和资源来改善招聘结果。然而,在招聘中使用人工智能也引发了与隐私、公平和问责相关的道德问题。
顶点项目是设计一架轻型攻击机。设计任何类型的飞机时都必须考虑许多不同的组件,包括但不限于重量、推进力、燃油效率、空气动力学、尺寸和成本。但是,在专门设计攻击机时,必须包括防御机制以及武器装备。在设计造成伤害的东西时会出现一个道德问题:无论需要何种手段,工程师在改进军事技术方面的作用是否有益于社会?在整个学期中,我们将在顶点项目的进展过程中开设一门工程伦理课程,这将有助于激发许多科学家和工程师每天都面临的这种道德困境的冲突,现在在设计轻型攻击机时也面临着这种困境。
