对 Timnit Gebru 和 Google 道德 AI 团队的支持 过去三年来,加州大学伯克利分校的 AFOG 受益于 Google 道德 AI 团队的几位成员参加我们的工作组会议和研讨会。最近,该团队的联合负责人 Timnit Gebru 博士因要求在她和她的团队成员进行的研究的内部审查过程中提高透明度和程序公平性而被解雇。AFOG 小组的成员研究数字技术在社会中的作用,并寻求建立更好、更公平的系统的方法。数十年来的技术史研究表明,技术不可避免地具有政治性。它们以独特的方式构建和调解人与人之间的关系。虽然数字技术具有巨大的潜在效益,但总有缺点、风险和危害需要考虑。这些风险并非均匀分布,而是经常遵循现有权力等级制度。根据我们在此领域的研究,我们了解到:
人工智能 (AI) 正在改变企业处理招聘和聘用流程的方式。随着组织越来越多地转向使用 AI 来简化招聘流程,围绕其使用的道德考虑变得越来越重要。虽然 AI 可以提供减少偏见和提高效率等好处,但它也引发了对隐私、公平和问责制的担忧。本研究论文的目的是探讨在招聘过程中使用 AI 的道德考虑,并确定确保合乎道德的 AI 招聘实践的最佳实践。AI 是指开发可以执行通常需要人类智能的任务(例如决策和解决问题)的计算机系统。在招聘方面,AI 算法可用于扫描简历、进行就业前评估和分析视频面试以识别潜在候选人。AI 有可能通过识别高质量候选人并减少招聘所需的时间和资源来改善招聘结果。然而,在招聘中使用人工智能也引发了与隐私、公平和问责相关的道德问题。
● 算法决策缺乏透明度 ● 不法分子利用人工智能做坏事 ● 人工智能系统容易被篡改和出现数据安全问题 ● 系统容易受到偏见 ● 法律跟不上技术的发展 ● 我如何真正信任这些系统?
罗氏认识到 AI 在生命科学研究和医疗保健领域的潜力,并专注于开发一系列与 AI 相关的解决方案,以部署在医疗环境中(例如支持 AI 的诊断应用程序),用于开发药品(即优化和加速研发),用于不同的科学决策领域,以及合规地实现患者和客户体验的商业应用。目前,AI 没有统一的定义。经合组织将 AI 系统定义为“一种基于机器的系统,出于明确或隐含的目标,从收到的输入中推断如何生成输出,例如预测、内容、建议或决策,这些输出 [可以] 影响物理或虚拟环境。不同的 AI 系统在部署后的自主性和适应性水平上有所不同。”(更多)
毫不夸张地说,人工智能正在我们的世界中得到越来越多的应用。尽管人工智能技术还远未发挥其全部潜力,但一些作家展望了遥远的未来,并设想了对人类的各种不同影响。约翰·丹纳赫(John Danaher,2019 年)讨论了人工智能对人类的一种特殊影响,捍卫了人工智能和机器人的崛起将“抑制我们的道德主体性并增加道德耐心的表达”(2019 年,第 133 页)这一论点。丹纳赫对此的论证是,我们的道德耐心的急剧增加将来自人工智能侵入人类道德主体性的三个重要领域:1)工作场所和就业,2)政治、法律和官僚决策,以及 3)休闲和个人活动。这些领域的入侵与机器人崛起的三种趋势相吻合。然而,我认为,丹纳赫基于第一种趋势的论证需要为以下假设提供支持:机器人将寻求某种接管(例如友好接管),以免激起人类的抵抗和行使我们的道德行动。此外,我认为,丹纳赫基于第三种趋势的论证需要为以下重要假设提供支持:大多数人都会屈服于过度依赖人工智能进行个人激励和决策的诱惑。
密码学长期以来一直是确保通信和保护隐私的工具。但是,其作用超出了技术实施,以涵盖重要的政治和道德方面。由埃里克·休斯(Eric Hughes)于1993年撰写的Cypherpunk宣言[7],强调了加密和拥护者的继承性政治本质,以此作为确保隐私和个人自由的一种手段。同样,菲利普·罗加威(Phillip Rogaway)的[10]工作强调了密码学家的道德责任,尤其是在大规模监视和社会影响的背景下。从根本上讲,密码学可以看作是“武装”群众保护自己的群众的一种手段。1993年的宣言和罗加威的作品强调了两个要点:不信任政府和保护集体数据。这种观点在戴维·乔姆(David Chaum)的思想中得到了回应,他提出了一个依靠强大加密来保护隐私的交易模型。尽管这些想法首次阐明了40多年,但保护社会免受信息滥用的梦想仍然很遥远。Chaum警告:
1。Introduction................................................................................................. 1
摘要教育中的人工智能(AI)技术的整合引入了许多可能性和好处。但是,这也引发了道德问题,需要仔细考虑。这项研究工作探讨了与AI在教育中的实施相关的道德意义。这项工作研究了关键的道德维度,包括隐私和数据保护,公平和偏见以及对教师关系关系的影响。发现突出了AI设计和部署中透明度,问责制和公平性的重要性。这项工作提出了一个全面的框架,以指导教育中的道德人工智能实施,强调对强大的政策,算法透明度和解决偏见的需求。通过主动解决这些道德考虑,教育利益相关者可以确保一个负责任且包容的教育环境,以利用AI的潜力,同时维护道德原则。人工智能(AI)已彻底改变了包括教育在内的各个部门。其整合到教育体系中,提出了关于隐私,自治,偏见和问责制的道德问题。本文通过哲学观点深入研究了人工智能在教育中的道德意义。利用著名哲学家的作品,研究了在教育环境中使用人工智能技术固有的道德考虑。
