对人工智能介导的同行评审伦理问题的批判性审视 Laurie A. Schintler*,乔治梅森大学 Connie L. McNeely,乔治梅森大学 James Witte,乔治梅森大学 *通讯作者:lschintl@gmu.edu 摘要 人工智能 (AI) 系统的最新进展,包括 ChatGPT 等大型语言模型,为学术同行评审带来了希望和危险。一方面,人工智能可以通过解决出版延迟较长等问题来提高效率。另一方面,它带来了道德和社会问题,可能会损害同行评审过程和结果的完整性。然而,人类同行评审系统也充满了相关问题,例如偏见、滥用和缺乏透明度,这些问题已经降低了可信度。虽然人们越来越关注人工智能在同行评审中的应用,但讨论主要围绕学术期刊出版中的剽窃和作者身份展开,忽视了同行评审所处的更广泛的认识论、社会、文化和社会认识论。人工智能驱动的同行评审的合法性取决于与科学精神的一致性,包括定义学术界适当行为的道德和认知规范。在这方面,存在一个“规范-反规范连续体”,其中人工智能在同行评审中的可接受性由制度逻辑、道德实践和内部监管机制决定。这里的讨论强调需要批判性地评估人工智能驱动的同行评审的合法性,解决相对于影响其实施和影响的更广泛的认知、社会、伦理和监管因素的利弊。关键词:人工智能、ChatGPT、同行评审、伦理、科学精神 1. 简介 科学是社会知识的中心,因此,它本质上是一种社会制度结构。从这个意义上说,科学传播中的知识治理和评估是一项基本的社会活动,主要由学术同行评审的过程定义(Polanyi,1962 年)。在过去的半个世纪里,学术同行评审经历了一场涉及计算机和互联网等信息技术的数字化转型(Vicente-Saez 等人,2021 年)。现在,人工智能(AI)——指的是通过计算公式、规则和逻辑“能够通过展示智能、类似人类的行为来执行任务”的技术系统(Russell & Norvig,2021 年)——正在被整合到相关活动中,以增强和自动化各种决策,从选择审稿人到淘汰被判定为低质量或欺诈的研究(Heaven,2018 年;Jana,2019 年;Checco 等人,2021 年)。自然语言处理器(NLP)、大型语言模型(LLM)和其他生成式人工智能技术(例如 ChatGPT 1)的最新突破可能会进一步颠覆同行评审系统,不仅带来了新的前景,也带来了前所未有的担忧和挑战(van Dis 等人,2023 年)。在
人工智能(AI)——定义为模仿人类思维的计算机程序或系统(Russell & Norvig,2003;Turing,1950)——在媒体信息中被描绘成社会进步的工具和充满危险的潘多拉魔盒(Chuan 等人,2019;Obozintsev,2018)。在过去的半个世纪里,《2001:太空漫游》(1968 年)、《终结者》(1984 年)、《黑客帝国》(1999 年)和《我,机器人》(2004 年)等电影都描绘了威胁人类的人工智能(Perkowitz,2007 年)。然而,近年来,人工智能已成为日常生活的一部分,其应用范围广泛,从 Siri 和 Alexa 等虚拟助手到医疗诊断工具。鉴于人工智能日益突出,不仅要了解公众如何看待这项技术,还要了解是什么影响了他们对这项技术的看法,这一点很重要 (Fast & Horvitz, 2017; Neri & Cozman, 2019)。几项全国性调查显示,美国公众对人工智能的看法不一,认为它既有希望,又有潜在的威胁 (Northeastern University & Gallup, 2018; West, 2018; Zhang & Dafoe, 2019)。同样的调查还强调了人口统计、政治倾向和宗教信仰如何预测人们对这项技术的看法。例如,这些调查显示,男性、拥有大学学位的人、年轻人、民主党人和宗教信仰较少的人对人工智能的看法比女性、没有大学学位的人、老年人、共和党人和宗教人士更为积极。相比之下,研究较少关注媒体信息是否(如果是,又是如何影响)对人工智能的看法。然而,媒体对公众对其他新兴技术的看法产生影响的研究结果表明,这些信息可能在促进对人工智能的支持或反对方面发挥重要作用,包括生物技术(Priest,1994)和纳米技术(Brossard 等,2009;Lee & Scheufele,2006)。考虑到这一点,本研究报告借鉴了科学技术的框架和公众舆论理论(Nisbet,2009;Nisbet & Mooney,2007),以探讨不同类型的信息如何影响对人工智能的支持。具体而言,它以先前关于人工智能新闻报道的研究结果为基础(Chuan 等人,2019 年;Obozintsev,2018 年),测试了两种框架对该问题的影响:支持人工智能的“社会进步”框架和反对人工智能的“潘多拉魔盒”框架。该研究还以竞争性框架研究为基础(Chong & Druckman,2007a,2007c;Nisbet 等人,2013 年),通过测试接触竞争性框架对人工智能的影响。同时,它与大多数框架研究(参见 Bolsen 等人,2019 年;Feldman 和 Hart,2018 年;Hart 和 Feldman,2016 年;Powell 等人,2015 年)不同,它研究的是图像(在本例中是现实世界的虚拟助手、现实世界的个人机器人和恐怖电影中的人工智能)如何塑造人们对人工智能的看法,无论是通过图像本身还是与基于文本的框架结合形成的看法。
I. 引言 多年来,技术发展彻底改变了人类生活的几乎每个方面,包括任何商业组织营销其商品和服务的方式。除了互联网、移动应用程序和社交媒体等既定的创新之外,物联网 (IoT)、人工智能 (AI)、大数据分析和机器人技术等一些新兴技术通过提供吸引和维护客户群的数字解决方案,对营销实践产生了深远的影响 (Hoffman 和 Novak 2018、Mende 等人 2019、Bolton 等人,2018、Davenport 2018)。新兴技术通过促进向目标客户提供商品和服务,为公司提供了竞争优势 (Spring 等人,2017 年,Balaji 和 Roy,2017 年)。这些新兴技术的出现为组织开展活动铺平了道路。因此,值得注意的是,制造业、零售业、金融业或医疗保健业等不同行业的商业组织都在不断增加对技术进步的支出,以实现不同的目标。随着技术领域的进步,世界已成为一个互联网络,人工智能在当今的商业场景中得到了不同的应用。“人工智能”(AI)一词由计算机科学家 John McCarthy 于 1954 年提出(Cukier,2019 年)。人工智能(AI)是一种广泛使用的新兴技术,可以定义为“机器表现出的智能”(Siau,2017 年)。人工智能是制造智能机器的科学和工程,它使用传感器来感知并使用效应器对外部环境做出反应(Russell and Norvig 2003)。它与使用计算机程序来理解人类智能有关(Stanford,2007 年)。具有人工智能的计算机能够学习、识别语音、规划和解决问题。 “人工智能”一词于 1954 年被提出。然而,自 2017 年以来,关于人工智能在营销中的作用的争论迅速升温,期刊上发表了更多研究论文。随着时间的推移,技术进步一直伴随着营销的发展,并已明确表明营销可以与人工智能一起发挥作用 (Siau, 2017)。人工智能驱动的先进创新营销解决方案可以快速适应公司不断变化的需求,并带来对利益相关者有利可图且至关重要的沟通和解决方案包 (Epstein, 2018)。当代营销是自动化、智能化的,而且越来越以数据为驱动。新时代营销的高度集中方法对营销结果产生了直接影响 (Paschen et al., 2019; Kumar et al., 2019)。营销人工智能被定义为“人工智能代理的发展,根据它们掌握的关于竞争对手、消费者和焦点公司的信息,建议和/或采取营销行动,以实现最佳营销结果”(Gijs Overgoor 等人,2019 年)。Van Esch(2018 年)将人工智能定义为人机交互。人工智能几乎影响了所有功能
引言人工智能 (AI) 的发展已展现出令人瞩目的性能,特别是在图像处理或游戏等明确定义的领域。然而,所部署的技术对于人类用户来说可能是不透明的,这引发了一个问题:人工智能系统如何提供解释 (Neerincx 等人,2018 年;Rosenfeld 和 Richardson,2019 年),并且监管框架对可解释人工智能 (XAI) 的需求日益增长。话虽如此,2017 年,谷歌的研究主管 Peter Norvig 指出,在人类可能不擅长提供“解释”的情况下期望计算机提供“解释”是具有讽刺意味的。可解释人工智能 (XAI) 的大部分工作都严重依赖于以计算机为中心的视角 (Springer,2019 年)。例如,Holzinger 等人 (2020) 假设人类和人工智能系统可以平等地访问“基本事实”。由此可见,可解释性“……突出了机器表示中与决策相关的部分……,即有助于模型在训练中的准确性或特定预测的部分。”与许多 XAI 文献一样,这并没有为人类提供任何角色,只能作为被动接受者。这意味着人工智能系统能够反省自己的过程来生成解释。然后将得到的解释呈现给用户,并描述人工智能系统的流程或它使用过的特征(“决策相关部分”)。这样,解释就只是一个建议(来自人工智能系统)加上与此相关的特征。正如 Miller (2017) 所指出的那样,这种态度的一个问题在于,它是基于设计师对什么是“好的”解释的直觉,而不是基于对人类如何响应和利用解释的合理理解。这并不能说明为什么选择某些特征,也不能说明为什么建议适合用户的关注点。它也没有将解释置于更广泛的组织中;分析师的解释可能与数据收集管理人员或接受分析师简报的经理的解释不同。对于 Holzinger 等人 (2020) 来说,情况的各个方面(定义为基本事实)被组合成一个陈述;也就是说,解释只是这个陈述的一种表达。这意味着从特征到解释存在线性插值。这类似于 Hempel 和 Oppenheim (1948) 的“覆盖定律模型”,该模型关注的是历史学家如何根据先前的原因来解释事件。然而,“基本事实”(由 Holzinger 的过程模型和覆盖定律模型假设)很少得到完全定义(导致在选择相关特征时产生歧义)。这意味着,仅仅陈述情况方面而不说明为什么选择这些方面(而不是其他方面)可能不会产生有用或可用的解释。霍夫曼等人(2018)对与解释相关的文献进行了全面的回顾。从这篇评论来看,解释涉及人类的理解(将人工智能系统的输出置于特定情境中),我们同意,考虑这一点的适当框架是数据框架的理解模型(Klein 等人,2007)。此外,理解(及其与解释的关系)依赖于认识到过程(提供和接收解释)必须是相互的、迭代的和协商的。这个过程依赖于“解释者”和“被解释者”达成一致。换句话说,解释涉及“共同点”(Clark,1991),其中理解上有足够的一致性以使对话继续进行。对话的性质将取决于提供解释的情况和被解释者的目标。例如,被解释者可能是“受训者”,他试图理解解释以学习决策标准,也可能是“分析师”,使用人工智能系统的建议作为政策。
人工智能:«实验哲学»还是现实的要求?Oleh Romanchuk 1,Viktoriya Romanchuk 2 * 1伊万·弗兰科国立洛杉矶国立大学助理教授,利维夫,乌克兰2博士学位学生,伊万·弗兰科国立利维夫大学,乌克兰LVIV,乌克兰 *通信作者电子邮件id:vsesvit.journal@gmail@gmail.com export the export of power of power of power of power of power of power of pore exist of pore exist of pore exist of World of World of World of World。讨论“新社会秩序”的形成,计算机文明的哲学,影响人类生活的最新信息和通信技术的方法,全球化世界总计算机化的心理和社会经济的后果,最新的方式和含义是解决出现的许多问题。人类面临的关键挑战已经超过了智人解决这些问题的智力能力。迫切需要创建高性能的通用计算机,该计算机可以在人类智能的层面上推理和执行操作,甚至超过它,包括批判性思维和创造力。这是关于创建所谓的“人工智能”(AI)。然而,这一发明将来可能会成为对人类文明危险的根源,因为如果不作为社会存在,人工智能将在人类伦理,道德,心理学之外发挥作用。担心世界对人工智能的迷恋的原因是非常真实的。没有人可以预测超级智能融入社会的后果。文章分析了创建AI和可能出现的社会风险的问题。(LEM,2014年)。该研究的目的是由于需要对“人工智能”概念的本质进行更深入的了解,以及在大众传播和社会关系领域可以解决的那些任务的识别。关键字:信息,人工智能,人类,交流,信息社会,互联网资源,计算机,通信技术。简介计算机越来越多地技术密集型。如今,媒体上有关人工智能的科学和流行科学文章不再令人惊讶,描述了对AI对媒体,政治和经济学影响的研究,分析了人工智能和传统武器的共生可能后果,以及更多。许多原始作品致力于此问题:( Wiener,1948年),(Turing,1950),(Andrew,1985),(Luger,2008),(Russel&Norvig,2006)等。在1948年,诺伯特·维纳(Norbert Wiener)将注意力集中在材料系统的属性中,以复制,存储和使用另一个系统的结构,同时确保系统适应环境(Wiener,1948)。在1950年,艾伦·图灵(Alan M. Turing)发表了上个世纪表达的最原始,最深刻的思想之一 - «计算机和智能»(图灵,1950年)。作者描述了程序(«模仿游戏»),通过该过程可以确定机器在合理意义上与人相等的时刻。此“图灵测试”成为“机器智能”的标准理论测试。测试任务假定对话者的情报水平决定了他进行对话的能力。二十年后,著名的波兰科幻作家,哲学家和未来学家Stanislaw Lem在他的文章“ Golem xiv”中指出,两个思想共存的问题 - 人类和“不人道”,生物学和人工智能,生物学和人工智能是未来的主要问题之一(Lem,1973)。在基本的哲学工作中«summa Technologiae»Stanislav Lem预测了虚拟现实的创造,人工智能,发展了人类自动进化的思想等。作者认为由于人工智学与人之间的关系,可能会出现的三种替代方法:AI永远不会超越人类的思想;如果发生这种情况,该人将能够保持对AI的控制;一个人是
在当今快节奏的世界中,人工智能已成为一个广泛讨论的话题,它已从科幻小说中的概念转变为影响我们日常生活的现实。人们对人工智能及其将想象力融入日常生活的能力着迷。本文旨在探讨人工智能的概念、发展历程、各种类型的人工智能、训练模型、优势以及其多样化应用的案例。人工智能是指开发能够执行需要人类智能的任务的计算机系统。它通过机器学习、自然语言处理、计算机视觉和机器人技术等技术,帮助处理大量数据、识别模式并根据收集的信息做出决策。人工智能涵盖学习、推理、感知、解决问题、数据分析和语言理解等能力。人工智能的最终目标是创造出能够模拟人类能力并以更高的效率和精度执行各种任务的机器。人工智能领域有可能彻底改变我们日常生活的各个方面,例如虚拟个人助理、自动驾驶汽车、医疗诊断和治疗、推荐系统和欺诈检测。人工智能已融入众多行业和日常生活,展现出其多样化的应用。Siri、Google Assistant 和 Amazon Alexa 等虚拟个人助理利用人工智能进行自然语言处理和机器学习,从而提供更精准的响应。自动驾驶汽车使用人工智能算法分析传感数据,并进行实时驾驶决策。医疗保健专业人员利用 IBM Watson for Health 和 Google DeepMind 等平台,将人工智能算法应用于医疗诊断和治疗。Netflix、Amazon 和 Spotify 等在线平台利用人工智能根据用户行为和偏好提供个性化推荐。金融机构利用人工智能通过分析数据的算法实时检测欺诈活动。人工智能 (AI) 是一个复杂的决策过程,在某些领域超越了人类的能力。人工智能机器的一个关键特性是重复学习,这使它们能够从现实生活中的事件中学习并与人类互动。这种学习过程被称为机器学习,是人工智能的一个子领域。由于缺乏准确性和热情,人类难以完成重复性任务。相比之下,人工智能系统在其任务中表现出卓越的准确性。人工智能在医疗保健、零售、制造和银行等各个领域都有广泛的应用。人工智能主要分为两类:弱人工智能(Narrow AI)和强人工智能(General AI)。弱人工智能是指专为特定任务或特定范围的任务而设计的人工智能系统。这些系统在其指定领域表现出色,但缺乏广泛的认知能力。其特征包括专业化能力、应用范围有限以及缺乏意识。狭义人工智能的例子包括虚拟个人助理、推荐系统、图像识别软件、聊天机器人和自动驾驶汽车。而广义人工智能则旨在全面模拟人类智能,包括推理、解决问题、学习和适应新情况的能力。广义人工智能的特征包括类似人类的认知能力、适应性以及在各种任务和领域中概括知识的能力。目前,狭义人工智能是人工智能最常用的形式,广泛应用于各行各业。狭义人工智能的例子包括Siri和Alexa等虚拟个人助理、推荐系统、图像识别软件、聊天机器人和自动驾驶汽车。随着研究人员不断突破人工智能的界限,他们提出了不同级别的人工智能能力。广义人工智能就是这样一个概念,它被认为具有自我意识、意识和主观体验。然而,达到这一水平仍然是一个理论挑战。广义人工智能的发展仍是一个持续研究的领域。另一个极端是超级人工智能,也称为人工智能超级智能 (ASI)。这种类型的人工智能几乎在各个方面都超越了人类智能,并对社会和人类的未来产生重大影响。超级人工智能的特点包括认知优势、快速学习和适应能力,这些特点可以推动各个领域的快速发展。超级人工智能的发展也引发了人们对其潜在社会影响的担忧,包括与控制相关的风险、与人类价值观的契合度以及对人类生存的威胁。尽管目前还处于理论阶段,但研究人员正在积极探索其发展带来的影响和挑战。相比之下,反应式机器是最基本的人工智能类型,纯粹是反应式的。它们不会形成记忆,也不会利用过去的经验来做出决策。例如,IBM 的“深蓝”国际象棋超级计算机在 1997 年击败了国际象棋大师加里·卡斯帕罗夫。这些机器可以感知世界并采取行动,而无需存储任何记忆。而记忆有限的机器可以回顾过去,并根据观察结果做出决策。一个常见的例子是自动驾驶汽车,它会观察其他车辆的速度和方向,并相应地进行调整。这需要在特定时间内监控车辆的驾驶情况。这些信息不会存储在机器的经验库中。基于心智理论的机器可以理解人类的信念、情绪、期望等,并做出情绪化的反应。索菲亚就是这类人工智能的典型例子,尽管该领域的研究仍在进行中。换句话说,先进的机器正在被开发,它们对世界及其实体(包括人类和动物)有着更深入的理解。这些机器将能够回答简单的“假设”问题,并具备同理心,从而更好地理解他人的观点。更重要的飞跃是创造出具有自我意识的机器,它们能够意识到自身身份并预测他人的感受。这种智能水平将代表人工智能研究的重大突破。人工智能 (AI) 的工作原理是通过算法、计算能力和来自各种来源的数据来利用海量数据。该过程包括收集相关数据,对其进行预处理以确保其清洁度和结构化,根据任务需求选择合适的算法,使用标记或未标记数据训练模型,评估其性能,并将其部署到生产环境中执行实际任务。人工智能功能广泛而多样,涵盖各种随时间推移进行调整和改进的技术。这使得模型能够通过持续学习在动态环境中保持相关性和准确性。在线学习、迁移学习和强化学习等技术有助于从经验和反馈中获取新知识。在推理过程中,经过训练的人工智能模型会运用其学习到的模式和表征,对新数据进行预测或决策。此过程包括将输入数据输入模型,并根据模型的内部工作原理获得输出预测或分类。人工智能系统依靠数据、算法和计算能力从经验中学习、做出决策并自主执行任务。人工智能系统的具体功能取决于其架构、算法以及其设计目标任务的性质。人工智能的应用领域广泛,已被广泛应用于医疗保健、金融、零售、制造、交通运输、教育、市场营销、游戏、安全和自然语言处理等各个行业。这些应用包括诊断、患者预后预测、个性化治疗方案、信用评分、欺诈检测、客户服务、需求预测、供应链优化、智能游戏角色、面部识别、入侵检测、机器翻译、情绪分析等等。人工智能的未来很可能涉及机器学习、自然语言处理和计算机视觉的进一步发展,从而为各种应用和行业带来功能日益强大、集成度更高的系统。人工智能的潜在增长领域包括医疗保健、金融、交通、客户服务、刑事司法决策、招聘、教育以及其他涉及道德考虑的敏感领域。人工智能 (AI) 是一种使计算机和机器能够模拟人类学习、解决问题和决策等能力的技术。AI 应用程序和设备可以识别物体、理解人类语言、从新信息中学习,并向用户和专家提供建议。AI 研究的最新焦点是生成式 AI,它可以创建文本、图像和视频等原创内容。生成式 AI 依赖于机器学习 (ML) 和深度学习技术。深度学习彻底改变了机器学习领域,它使算法能够在无需人工干预的情况下从大量未标记数据集中进行预测。这项技术尤其适用于自然语言处理、计算机视觉以及其他需要在海量数据中识别复杂模式和关系的任务。因此,深度学习为我们日常生活中的大多数 AI 应用提供支持。深度学习还支持多种先进技术,包括半监督学习,它结合了监督学习和非监督学习,可以在标记数据和未标记数据上训练模型。此外,自监督学习从非结构化数据中生成隐式标签,而强化学习则通过反复试验和奖励函数进行学习。迁移学习允许将从一个任务或数据集获得的知识应用于另一个相关任务或不同的数据集。生成式人工智能是指能够根据用户的提示或请求创建复杂原始内容(例如文本、图像、视频或音频)的深度学习模型。这些模型对其训练数据的简化表示进行编码,然后从该表示中提取数据以生成与原始数据相似但不完全相同的新作品。生成式人工智能的最新进展促成了复杂的深度学习模型类型的发展,包括变分自编码器 (VAE)、扩散模型和变换器。变换器是许多备受瞩目的生成式人工智能工具的核心,例如 ChatGPT 和 GPT-4、Copilot、BERT、Bard 和 Midjourney。生成式人工智能的运作分为三个阶段:训练、调整和生成。该流程始于基础模型,这是一种深度学习模型,可作为多种不同类型生成式人工智能应用的基础。基础模型可以针对特定任务进行定制,例如文本或图像生成,并且通常基于海量数据进行训练。深度学习算法处理海量非结构化数据(TB级或PB级的文本、图像或视频),并使用基础模型根据提示自主生成内容。这一训练过程计算密集、耗时且成本高昂,需要数千个GPU和数周的处理时间,总计数百万美元。像Meta的Llama-2这样的开源基础模型项目使开发人员能够绕过这一步骤及其成本。为了针对特定的内容生成任务对模型进行微调,开发者可以使用诸如标记数据微调或人工反馈强化学习 (RLHF) 等技术。这需要向模型输入特定于应用的问题或提示以及正确答案。开发者定期评估其生成式 AI 应用的输出,进一步调整模型以提高准确性或相关性。另一种方法是检索增强生成 (RAG),它通过整合训练数据以外的相关来源来扩展基础模型,从而优化参数以提高准确性或相关性。生成式 AI 为各行各业和应用带来了诸多优势,包括重复性任务的自动化、更快地从数据中获取洞察、增强决策能力、减少人为错误、全天候可用以及降低物理风险。AI 可以自动化日常任务,使人类能够专注于创造性工作。它能够做出更快、更准确的预测和可靠的决策,使其成为决策支持或全自动决策的理想选择。AI 通过引导人们完成流程、标记潜在错误以及在无人干预的情况下自动执行任务来减少人为错误,尤其是在医疗保健等精准度至关重要的行业。随着机器学习算法接触更多数据并从经验中学习,其准确性不断提高,错误也随之减少。人工智能始终在线,全天候提供一致的结果。人工智能可以通过使用聊天机器人或虚拟助手来简化客户服务或支持的人员需求。它还可以简化生产流程,保持一致的产出水平,并自动执行那些可能危及人类工人的危险任务。例如,自动驾驶汽车可以降低乘客受伤风险。人工智能的实际应用包括通过聊天机器人改善客户服务、检测欺诈交易、个性化客户体验以及简化招聘流程。此外,人工智能代码生成工具可以加速应用程序开发,而预测性维护模型可以防止设备故障和停机。人工智能的快速应用带来了诸多好处,但也带来了挑战和风险。人工智能系统依赖的数据集可能容易受到篡改、偏见或网络攻击,从而损害其完整性和安全性。为了降低这些风险,组织必须在从开发到部署的整个人工智能生命周期中保护数据完整性。威胁行为者会针对人工智能模型进行盗窃、逆向工程或未经授权的操作,这可能会损害模型的架构、权重或参数。此外,还存在诸如模型漂移、偏差和治理结构崩溃等运营风险。如果不加以解决,这些风险可能会导致系统故障和网络安全漏洞,而威胁行为者可能会利用这些漏洞。为了优先考虑安全和道德,组织必须开发透明、可解释、公平的人工智能系统,包容、稳健、安全且可问责。人工智能伦理是一个多学科领域,旨在优化人工智能的有益影响,同时降低风险。人工智能伦理的原则包括可解释性、公平性和透明性。可解释的人工智能使人类用户能够解读算法产生的结果和输出。公平性和包容性要求在数据收集和模型设计过程中最大限度地减少算法偏差。建立多元化的团队对于创建包容性的人工智能系统至关重要。稳健的人工智能能够处理异常情况而不会造成损害,能够抵御有意和无意的干扰,并防止漏洞。问责制要求对人工智能的开发、部署和结果建立明确的责任和治理结构。与人工智能伦理相关的共同价值观包括可解释性、公平性、包容性、稳健性、安全性、问责制、透明性和责任感。用户必须了解人工智能的开发方式、功能、优势和劣势。提高透明度可以为人工智能模型和服务的创建提供宝贵的见解。确保隐私和合规性至关重要,因为像《通用数据保护条例》(GDPR)这样的监管框架要求组织保护个人信息。这包括保护可能包含敏感数据的人工智能模型,并开发能够适应不断变化的法规的适应性系统。研究人员根据人工智能的复杂程度对其进行了分类:弱人工智能(狭义人工智能)执行特定任务,而强人工智能(通用人工智能,AGI)则具有理解、学习和应用知识处理各种任务的能力,超越人类智能。具有自我意识的人工智能系统的概念仍是一个有争议的话题。人工智能发展的关键里程碑包括:- 1950 年:艾伦·图灵出版了《计算机器与智能》,提出了“机器能思考吗?”的问题,并提出了图灵测试。- 1956 年:约翰·麦卡锡在达特茅斯学院的第一次人工智能会议上提出了“人工智能”一词。- 1967 年:弗兰克·罗森布拉特制造了 Mark 1 感知器,这是一台基于通过反复试验进行学习的神经网络的计算机。- 1980 年:使用反向传播算法的神经网络在人工智能开发中得到广泛应用。 1995年,斯图尔特·罗素和彼得·诺维格出版了《人工智能:一种现代方法》,这是一本关于人工智能的权威教科书,探讨了人工智能的四个潜在目标或定义。大约在同一时期,IBM的“深蓝”国际象棋系统在一场对决中击败了世界冠军加里·卡斯帕罗夫。大数据和云计算时代到来,使企业能够管理用于训练人工智能模型的大型数据资产。21世纪初,人工智能取得了重大进展,包括约翰·麦卡锡在其2004年的论文《什么是人工智能?》中对人工智能的定义。数据科学开始成为一门热门学科,IBM Watson击败了《危险边缘!》冠军肯·詹宁斯和布拉德·鲁特。2015年,百度的 Minwa 超级计算机使用卷积神经网络识别图像的准确率高于人类。同年,在 DeepMind 的 AlphaGo 程序击败世界围棋冠军李索孛后,谷歌以 4 亿美元收购了 DeepMind。2020 年代,大型语言模型 (LLM) 兴起,例如 OpenAI 的 ChatGPT,它们显著提高了人工智能性能和推动企业价值的潜力。生成式人工智能实践使深度学习模型能够在大型数据集上进行预训练。截至 2024 年,人工智能趋势表明它将持续复兴,多模态模型通过结合计算机视觉和 NLP 功能提供更丰富的体验。IBM 强大的人工智能战略:推进值得信赖的人工智能以获得竞争优势一种利用人工智能力量的全面方法,包括创造竞争优势、在整个业务中扩展人工智能以及推进值得信赖的人工智能。
