3月18日至19日,一群专家在Eelisa AI伦理和法律讲习班举行的布达佩斯。在四个小组讨论中,他们将研究该主题中可能的研究方向,以及监管的含义,尤其是对版权事项和欧盟AI法案的含义。该事件还将采用未来的预测方法和纪录片筛选。
0:00 你好。我的名字是 Jibu Elias,我将谈论文化在人工智能伦理中的作用,特别是从东方文化的角度。在开始之前,我要感谢全球人工智能伦理联盟提供的这个绝佳机会。希望你会喜欢这次讲座。在开始之前,让我先自我介绍一下。我是来自印度的人工智能伦理学家和研究员。我目前是印度政府人工智能倡议 INDIAai 的研究和内容主管。我还是 OECD 专家网络 ONE AI 的成员,也是 Springer 的《人工智能与伦理》期刊的创始成员之一。因此,目前,我的工作重点是建立印度统一的人工智能生态系统,并努力缩小由于人工智能等技术而产生的数字鸿沟。通过本课程,我将带您了解以下几点。首先,我们将从当前情况下人工智能伦理的重要性开始,文化在决定人工智能伦理方面发挥的作用。第三,为什么我们需要在人工智能伦理话语中实现多样性和包容性。第四和第五点是我们可以从东方文化视角的人工智能伦理以及东方哲学方法中学到的东西。
传统的自由模型通常会隔离自主权,从而导致概念上的显着差距。自由主义者的自由意志强调完全独立于外部决定因素,这是一种理想化和不受约束的代理形式。这种观点忽略了自主权固有地受到系统性和关系影响的方式。另一方面,兼容允许在确定性的边界内自由意志,但会降低自主权,仅与内部欲望相结合,无法说明能够实现道德化增长和反思性决策的机制(Wisniewski等人,2019年)。 坚硬的决定论认为所有人类行为都是由外部因素决定的,它否认了自由的存在。 虽然在逻辑上保持一致,但这种观点忽略了人类通过有意识的努力来反思和重塑其行为的可观察能力。 关系方法(例如关系自主权和集体意图)正确地强调了社会关系在塑造自主权中的作用,但经常将这些影响降低到次要重要性,忽略了人类决策的相互联系和系统性的维度(Christman,1990; Mackenzie&Stoljar,2000; 2000年)。 共同解决了自由意志的发展,关系和道德方面(Frankfurt,1971)。兼容允许在确定性的边界内自由意志,但会降低自主权,仅与内部欲望相结合,无法说明能够实现道德化增长和反思性决策的机制(Wisniewski等人,2019年)。坚硬的决定论认为所有人类行为都是由外部因素决定的,它否认了自由的存在。虽然在逻辑上保持一致,但这种观点忽略了人类通过有意识的努力来反思和重塑其行为的可观察能力。关系方法(例如关系自主权和集体意图)正确地强调了社会关系在塑造自主权中的作用,但经常将这些影响降低到次要重要性,忽略了人类决策的相互联系和系统性的维度(Christman,1990; Mackenzie&Stoljar,2000; 2000年)。共同解决了自由意志的发展,关系和道德方面(Frankfurt,1971)。
当今AI伦理最前沿的问题 - 不公正,歧视和报复 - 是边缘化社区数十年来一直在战斗的战斗。它只花了我们数百万美元,并引起了我们的可爱技术的巨大公共利益。算法表现并进一步加剧了我们社会的结构不平等。我们终于开始看到“偏见”(算法或其他方式)的真实含义:从根本上是人类的问题。
1 National Public Radio, “A Look At How The Revolving Door Spins From FDA To Industry,” September 28, 2016, https://www.npr.org/sections/health-shots/2016/09/28/495694559/a-look-at-how-the-revolving-door-spins-from-fda- to-industry; BMJ,“旋转门:董事会会员,对冲基金和负责调节行业的FDA负责人”,彼得·多什(Peter Doshi),2024年5月8日,https://wwwww.bmj.com/content/385/385/bmj.q975。2参见,例如,美国办公室Senator Elizabeth Warren, In Response to Senator Warren, FDA Commissioner Nominee Dr. Robert Califf Makes Strongest Ethics Commitments of Any Senior Biden Administration Official, January 31, 2022, Press Release, https://www.warren.senate.gov/newsroom/press-releases/-in-response-to-senator-warren-fda-专员提名人 - 罗伯特 - 阿里伯特·马克斯·马克斯 - 斯特朗斯特 - 伦理学 - 官员官员。
顶点项目是设计一架轻型攻击机。设计任何类型的飞机时都必须考虑许多不同的组件,包括但不限于重量、推进力、燃油效率、空气动力学、尺寸和成本。但是,在专门设计攻击机时,必须包括防御机制以及武器装备。在设计造成伤害的东西时会出现一个道德问题:无论需要何种手段,工程师在改进军事技术方面的作用是否有益于社会?在整个学期中,我们将在顶点项目的进展过程中开设一门工程伦理课程,这将有助于激发许多科学家和工程师每天都面临的这种道德困境的冲突,现在在设计轻型攻击机时也面临着这种困境。
课程大纲 讲师:Kyle Ferguson,环境研究系兼职教授 电子邮箱:kyle.ferguson@nyu.edu 办公室:285 Mercer Street,902 室 虚拟办公室:Zoom(会议 ID:398 318 6573;密码:420026) 办公时间:周一和周三,下午 12:30–1:30 及预约时间 课程网站:纽约大学课程 > 伦理与环境,第 001 节 [ URL ] 课程描述:环境哲学是一门大学科,涉及形而上学、科学哲学和哲学史的问题,也涉及伦理学、美学和政治哲学等规范领域。本课程主要讨论这些规范领域。从价值理论的一些基本概念开始,我们的目标不是找到具体环境问题的明确解决方案,而是 (i) 提高您的批判性思考能力、仔细阅读的能力以及就环境问题进行良好辩论的能力;(ii) 向您介绍环境哲学中的一些主要争议;(iii) 帮助您对正在讨论的问题形成自己理性而清晰的观点。课程材料:
此外,并非所有对AI透明度的担忧都是如此之高。有些担忧也更加脚踏实地。认为AI威胁要加剧当前歧视的人。担心,不透明的AI产生了促进种族主义,性别歧视和其他形式歧视的新方法,以及隐藏这种歧视的新方法。人类将继续以可预测的方式成为种族主义。这将部分归因于不透明的过程,这些过程指导了人类如何做出决定。,但是AI将创造新的种族主义方式。,它将创造新的方式来掩盖种族主义。这将是由于指导AI做出决定的不透明过程。AI可能与人类一样透明,理由是作出决定的原因。,但它的不透明性隐藏了支持和维持人类不透明度不存在的偏见的新方法。解决不透明人工智能中种族偏见的担忧,ZKMG(2019年,第673页)说: