在这次采访中,我们深入探讨了当代哲学界的杰出人物、信息哲学的先驱 Luciano Floridi 的思考。Floridi 享誉全球,在解决数字技术的伦理问题方面发挥着至关重要的作用。对话涵盖了人工智能的关键主题,探索了“奇点主义”,并质疑观点是否随着生成式人工智能的兴起而演变。讨论延伸到大型语言模型,强调缺乏真正的推理以及代理和智能之间的脱节。采访强调了在 ChatGPT 带来的挑战面前发展智力和批判性思维的重要性,并解决了对可能出现的认知衰退的担忧。至于人工智能的未来,Floridi 概述了 GELSI 中的关键问题,并描绘了对治理、道德、合法性和社会的影响。
Gupta, S. 和 Degbelo, A. 的预印本(2022) “人工智能对可持续城市 (SDG11) 贡献的实证分析”,载于 Mazzi, F. 和 Floridi, L. (eds)《可持续发展目标中的人工智能伦理》。
2 下文将通过“道德即服务”概念的发展明确这一点——我们对该概念的使用基于哈贝马斯的话语伦理学理论(Heath,2014;Mingers & Walsham,2010;Rehg,2015)和 Floridi 的分布式责任理论(Floridi,2016)。这使得我们对该概念的解释不同于谷歌和其他大型科技公司所倡导的技术官僚解释,这些公司声称他们可以“审计客户的人工智能系统以确保道德诚信”(Simonite,2020)。因此,本文不应被解读为支持此类主张。
作者采用了 Floridi (2016) 开发的一种机制。在这项工作中,Floridi 将责任问题从开发人员本身的意图转移到他们的分布式道德行为对道德患者的影响。Wolf 等人从略微不同的方向出发,提出一个论点,即软件的一些特性可以用作指南,以更好地区分软件开发人员可能对软件的下游使用承担责任的情况和软件开发人员可能不承担该责任的情况。该软件责任归因系统 (SRAS)(我们在此称之为)的重要特征包括:与硬件的接近程度、风险、数据敏感性、对未来用户群体的控制程度或了解程度,以及软件的性质(通用与特殊用途)。随后的一篇论文,Grodzinsky 等人 (2020) 提供了一些证据,表明这些特征及其对责任评估的影响与文献中的一些来源一致。
讲师:Alistair Isaac 博士 课程秘书:Ani Cowe 电子邮件:amcisaac@ed.ac.uk 电子邮件:philinfo@ed.ac.uk 本课程探讨信息的不同概念分析及其对信息时代特有的认识论和伦理问题的影响。它涵盖的问题包括:什么是信息?信息是否传达知识?错误信息是否也是一种信息,即信息可以是错误的?纯信息领域(聊天室、MMORPG)中的互动是否与物理互动具有相同的道德义务?信息型经济有哪些显著特征?这是一门基于讨论的课程。每周您都需要通过观看视频和阅读指定的论文来备课。您必须在课前阅读/观看所有必需的材料才能充分参与课程。评估 期中考试 家庭考试 约占期末成绩的 40% 期末论文 约占期末成绩的 60% 2500 字阅读 一般背景阅读 百科全书或图书馆和情报科学中关于“信息”的条目:https://pages.gseis.ucla.edu/faculty/bates/articles/information.html 劳特利奇信息哲学手册 (2016),Floridi 编辑,劳特利奇 信息哲学 (2008),Adriaans、van Benthem 编辑,Elsevier North Holland 概率的哲学导论 (2005),Maria Carla Giovatti,CSLI 信息哲学 (2013),Floridi,OUP 信息伦理 (2015),Floridi,OUP 第 1 周:信息简介 基本信息 R/evolution [来自互联网早期的观点]
Carlo Casalone 教皇生命学院 Luciano Floridi 牛津大学 Laura Palazzani 教皇生命学院 Renzo Pegoraro 教皇生命学院 Francesca Rossi IBM 研究部 Roberto Villa IBM 意大利基金会
最近的报告估计,政府、人工智能公司和独立的人工智能伦理倡议提出了至少 70 套公开可用的人工智能伦理原则 (Floridi 等人,2018 年;Jobin 等人,2019 年)。然而,人们也普遍承认,这些高级原则很难通过明确的规则和设计指南转化为实践 (Morley 等人,2020 年;Peters 等人,2020 年)。因此,许多声称采用伦理原则的人工智能研究和开发团体被指责进行不必要的美德信号或“道德洗白”(Nemitz,2018 年)。根据这些批评者的说法,没有明显实施到人工智能研究和开发实践中的伦理原则只不过是障眼法,向公众投射了一种不合理的可信形象。
功能日益强大的人工智能 (AI) 技术的快速创新正在为组织带来生产力、效率和机遇方面的好处。寻求采用 AI 来获得这些好处的组织需要意识到可能存在的道德问题,例如与偏见、公平、隐私、错误信息、欺诈和劳动力相关的问题 (Fjeld 等人,2020 年;Floridi 等人,2018 年;Kieslich 等人,2022 年)。为了解决这些问题,组织必须投资 AI 道德计划来应对 AI 技术的意外后果,但可能不清楚他们能得到什么回报。一项研究发现,来自各个行业的组织的参与者都在努力证明“与‘亲道德设计’相关的额外时间和资源成本是合理的,尤其是在没有明确的投资回报的情况下 (Morley 等人,2021 年,第 413 页)。”尽管学术界、科技界和企业界有大量关于人工智能伦理的研究,无论是一般领域还是特定领域(例如偏见、可解释性等)。,但目前还没有方法或工具来证明此类人工智能伦理投资的合理性。
人工智能伦理正在经历两次转变。首先,学术组织和私营公司(Peters 等人,2020 年;Whittlestone 等人,2019 年)编纂的庞大的伦理原则正在融合成一个脆弱的共识,即人工智能伦理在理论层面上意味着什么。欧洲理事会的《可信人工智能伦理指南》(Floridi 和 Clement Jones,2019 年)反映了这一松散的共识,它产生了 Morley 等人(2020:2147)所说的“人工智能伦理的第二阶段:在‘什么’和‘如何’之间进行转化”。本文通过记录对现有、已部署且正在运行的人工智能医疗设备进行严格的伦理评估所获得的经验,有助于将抽象原则转化为具体的人工智能应用。本文将遵守与制造商的保密协议,但从广义上讲,该设备会生成心电图的专有分析,以过滤与即将发生的冠心病相关的异常和模式。该评估是受设备制造商邀请的。
弗洛伊德(1961)曾有句名言:文明表面上是为了保护人类免遭苦难,但矛盾的是,它却是不幸的一大根源。同样,人工智能既被吹捧为人类最大问题的解决方案,又被谴责为人类有史以来面临的最大问题之一——甚至可能是最后一个问题。许多专家认为,人工智能对人类在这个星球上的生存构成了威胁:如果不是核战争、气候灾难或另一场全球流行病,那么预示世界末日的将是“超级智能”机器(Barrat 2013;Bostrom 2014;Clark 2014;Yampolskiy 2015;Müller 2016;Cava 2018;Russell 2019)。也可能不是。其他人工智能倡导者声称,新一轮的道德发展将迎来“良好人工智能社会”(Floridi 等人2018),摆脱稀缺和纷争,从而将西方带入目的论的顶峰,正如日本技术专家 Akihito Kodama(2016)所说:重返伊甸园——无需工作就能获得富足,生活没有痛苦——尽管数字化了(Hilton 1964;Noble 1999;Geraci 2010;Diamandis 和 Kotler 2012)。