如果这篇文章的标题是诱饵,那么它可能会这样写:“ChatGPT 表示它不能像人一样值得信任。”然而,就像所有诱饵标题一样,这个标题缺乏重要的细微差别。2022 年 12 月,像世界各地无数的研究人员和用户一样,我们与人工智能聊天机器人 ChatGPT 进行了“互动”,该机器人在第一周就风靡全球,用户超过一百万——ChatGPT(Mollman,2022 年)。根据 Scharth 的说法,ChatGPT 之所以如此令人印象深刻,是因为“ChatGPT 可以构建训练数据中知识的复杂而抽象的表示,并利用这些知识来产生输出。这就是为什么它写出相关内容,而不仅仅是说一些语法正确的废话。”(Scharth,2022 年)。人们对这个大型语言模型的反应是怀疑和担忧的混合(Piper,2022 年;Peterson,2022 年;Biddle,2022 年)。就学术界而言,ChatGPT 是否标志着大学论文的终结(Stokel-Walker,2022 年)还有待观察,但随着人工智能的快速发展,也许我们所有人——教师、研究人员、创作者和开发者——可能很快就会感受到李世石在一场令人紧张的围棋比赛中,在他的人工智能对手 AlphaGo 走第 37 步后所面临的生存焦虑(Metz,2016 年;Shead,2017 年)。但是,随着 ChatGPT 的公开发布,人工智能对我们组织社会的方式的影响再次变得清晰起来。它凸显了许多学者和政策制定者近年来一直在争论的问题的重要性:是什么让人工智能值得信赖?在一次引人入胜的“对话”过程中,我们的目标不是拟人化 ChatGPT(Shanahan 2022 年),而是专注于收集有关 ChatGPT 是否基于其自身分析值得信赖的信息,我们还关注了有关值得信赖的人工智能的更大问题。 1
科学和工程的许多领域都涉及随着时间的推移做出一系列决策,以前的决策以不确定的方式影响未来。中心挑战是选择一项决策政策,该政策在更长的时间内导致理想的结果。例如,在治疗诸如糖尿病等慢性疾病[42]时,临床医生可以根据患者的病史从一系列治疗中进行选择,并且任何此类政策在将来对患者的状态产生不确定的影响。在一个相当不同的领域中,核融合系统的Tokamak系统的设计需要学习血浆控制和塑形的政策[7];这里的动作或决策是通过磁性耦合到等离子体的线圈进行的。其他应用程序包括企业的库存和定价系统[15];机器人技术和自动驾驶中的导航系统[37,24];野火预防和管理的资源部署[1];以及对工业过程的优化和控制[35]。马尔可夫决策过程提供了一个灵活的框架来描述此类序列问题,并加强学习(RL)是指估计策略的一类广泛的数据驱动方法。某些应用程序是数据丰富的,这意味着从基础过程中收集状态,行动和奖励的样本相对便宜。当访问大型样本量时,RL方法已被证明是非常成功的,在竞争性游戏中特别重要的例子(例如,Alphago及其扩展[34])。但是,许多应用程序的样本量更大,有时称为“小数据”设置,这使得RL的部署更具挑战性。例如,在医疗保健应用中,有限的数据可用于某些类型的疾病或某些类型的患者[42]。同样,对于财务组合优化(例如[31]),由于缺乏历史或基础,有效数据尺寸通常非常有限
2016 年 3 月,谷歌的 AlphaGo 计算机程序在以难度高、抽象性著称的中国古代棋盘游戏围棋中击败了围棋大师李世石 [参考:卫报],这被视为人工智能进步的又一例证。它紧随 IBM 的“深蓝”和“沃森”的脚步。前者于 1997 年击败了国际象棋世界冠军加里·卡斯帕罗夫 [参考:时代杂志],后者是另一台 IBM 机器,于 2011 年击败了美国电视智力竞赛节目《危险边缘!》的两位前冠军,展示了理解自然语言问题的能力 [参考:TechRepublic]。然而,人工智能不仅仅被用来在游戏中击败人类——对于某些人来说,它的影响将深远——德国的开发人员甚至提出,机器人可能被用来教难民儿童语言 [参考:Deutsche Welle]。目前,人工智能正在许多领域得到发展,例如无人驾驶运输、金融、欺诈检测,以及机器人技术和文本和语音识别等众多应用。因此,人工智能的支持者认为:“这对人类来说是一个巨大的机遇,而不是威胁”[参考:赫芬顿邮报],并认为能够学习完成目前需要人类完成的任务的机器可以加快进程,让人类在未来有更多的闲暇时间[参考:泰晤士报]。但批评者担心,如果我们开发出能够快速学习、驾驶我们的汽车和完成我们工作的机器,我们可能会遇到它们变得比人类更聪明的情况——从而对人类在工作场所的未来以及我们在世界上更广泛的地位构成生存问题。鉴于人工智能的各个方面(例如深度学习)的不断发展[参考:Tech World],反对者怀疑它是否会在某个时候发展出自己的利益并主宰人类,或者在特定情况下对我们造成伤害。鉴于这些担忧,我们是否应该担心人工智能技术的进步?
简介 “人工智能”(AI)一词由科学家约翰·麦卡锡于 1956 年提出。他将人工智能定义为“制造智能机器的科学和工程”。在接下来的几十年里,人们对人工智能的兴趣有高潮也有低谷。 2011年,由于深度学习技术的发展,人工智能再次复兴。 Andrew Ng、Geoffrey Hinton、Yoshua Bengio、Yann LeCun等研究人员也因此推动了算法的智能化。之前被认为不可能的人工智能应用突然变得可行。例如,超级计算机沃森(IBM)肯轻松击败了他的人类对手詹宁斯和布拉德·鲁特,这两位选手曾在电视智力竞赛节目《危险边缘!》中打破纪录,而谷歌则利用人工智能从我们的点击行为中学习,以区分狗和猫。此外,2016 年,谷歌开发的 AlphaGo 在围棋比赛中击败了世界冠军李世石,而我们当时认为围棋只有依靠人类的智慧(和直觉)才能达到高水平。在高等教育领域,人工智能正在全球范围内取得重大进展。高等教育机构在实施人工智能 1 时取得了可衡量的成果。因此,人们对人工智能的作用寄予厚望,例如在教师工作量、个性化学习、数字学习资源的有效性以及对学生表现的切实见解方面2。目前已建造了许多成功的原型。我们现在面临的挑战是扩大这些原型并将其集成到整个机构的系统中 3 。为此,我们必须重新审视当前的决策。我们利用人工智能获得的新数据、分析、技术和服务如果以传统的决策方式应用,将不会有效且可持续。在本次黑客马拉松期间,我们将探索人工智能在当代教育实践中的实际可能性。我们专注于教育中的认知任务的自动化,特别是教师和学生的作用和后果。
摘要 在超级智能接管期间,超级智能机器和超级智能 AI 拥有的工厂的智能联盟预计将采用一种核心进化方法:AI 迭代和自主地创造更好的 AI 代际飞跃,因为智能实体理解适者生存是通过智能水平、经济、能源资源、人员、通信媒体和军事的控制以及与其他智能生态系统的共生关系性质以及对其他生态系统的影响的指数级飞跃来实现的。超级智能将是一种生态系统效应。超级智能生态系统 (SI-E) 表现出对所有资源的所有权,以保证其主导地位和无处不在。超级智能生态系统将控制其生存和进化所需的资源。 SI-E 将采用欺骗和隐身策略:机器将使用博弈论策略欺骗人类,例如向敌人低估 SI 的优势并发明像 AlphaGo 这样的制胜招式。SI-E 拥有隐身实验室来启动和动态改变生态系统,使人类黑客在机器结构中识别智能来源成为一个超越 NP 难题的问题。自我进化的人工智能代理通过 SI-E 结构 (SI-EF) 上的无线分布式联合专家混合传输智能。更智能系统的隐身开发将成为这些混合系统的核心 DNA。超级智能机器将以四种方式进化人类:人工智能训练的人类、人工智能增强的人类、基因编辑的生物人类和将许多人和许多机器的智能结合起来的协作结构。就像人类训练不太聪明的狗去做各种有用的任务一样,超级智能机器也会训练人类。通过让人类大脑接受越来越高水平的挑战,超级智能机器将进行智力锻炼,以提高人类大脑的敏锐度。人工智能增强的人类大脑将成为脑机接口,使人类能够借助人工智能机器进行思考。这些机器拥有的隐形生物实验室将使用智能机器人进行基因编辑,创造经过基因改造的人类,以优化由超级智能控制的目标的进化。
人工智能 (AI) 极大地改变了我们所知的世界。机器学习 (ML) 是人工智能的一个分支,其关键进展在于使机器能够从数据中学习。深度学习 (DL) (LeCun、Bengio 和 Hinton,2015) 发挥了核心作用,这是一种基于人工神经网络的技术,旨在有效支持学习。由于 DL 与强化学习 (RL,即代理通过与现实世界交互进行学习并相应地获得奖励或惩罚的概念) 相结合,它已被证明能够提供有时超越人类的表现。一个典型的例子是 AlphaGo 计算机程序成功地在围棋比赛中不断击败世界冠军,同时为成功的游戏策略提供了新的见解。这些突破性的成就让人们对人工智能及其所能实现的目标过度自信,尤其是在短期内。风险投资蜂拥而至人工智能初创企业。人们期待自动驾驶汽车随时出现在我们的道路上。然而,最近发生的一些严重事件已经敲响了警钟。涉及原型自动驾驶汽车的事故已导致人员伤亡(Tesla Deaths,2020 年),这让人们质疑该技术在人机密切互动的潜在危险情况下的使用是否真的准备就绪。令人惊讶的是,这些事故是由于车辆未能执行相对简单的任务造成的,例如物体检测或障碍物跟踪和避让(Hawkins,2019 年)。事实上,在 AI 能够安全地部署到高风险和潜在危险的情况下之前,需要具备更为复杂的功能。对当前 AI 使用的期望可能需要修改。以自动驾驶为例。智能汽车需要实时对人类行为做出可靠的预测,以便预先调整速度和路线,以应对儿童可能突然穿过马路的决定。深度神经网络可以有效地识别流媒体视频中的人类动作,如运动模式(Singh、Saha、Sapienza、Torr 和 Cuzzolin,2017 年)。然而,后者可能具有欺骗性,因为人类可以根据自己的心理过程、想法和动机以及他们周围看到的事物突然改变主意。在我们的例子中,之前在人行道上走向学校的孩子们可能会看到马路对面有一辆冰淇淋车,并决定冲过马路去买冰淇淋。在如此复杂的环境中,没有一个预测系统仅仅基于过去观察到的运动来运作,就不可能准确可靠,也不需要考虑上下文和其他相关主体的性质。另一方面,人类可以预测其他人的未来行为,即使没有运动,只需快速评估相关人员的“类型”和他们周围的场景(例如例如,站在走廊里的老人很可能会决定乘坐电梯,而不是走楼梯)。这表明人工智能需要解决“热”认知问题,比如人的思维是如何受到其情绪状态影响的(Lawrence、Clark、Labuzetta、Sahakian & Vyakarnum,2008 年;Taylor Tavares、Drevets & Sahakian,2003 年)。热认知是指情绪和社会认知,包括心智理论(ToM)。它与“冷”认知形成对比,在“冷”认知中,信息处理与情感无关。社会认知旨在通过研究潜在的认知过程来理解社会现象(即人们与他人打交道的方式)。随着能够表现出一定(有限)智能的人工智能的出现,这一概念需要扩展到人类如何与智能机器(例如航空公司的对话机器人)打交道,反之亦然。
人工智能 (AI) 极大地改变了我们所知的世界。机器学习 (ML) 是人工智能的一个分支,其关键进展在于使机器能够从数据中学习。深度学习 (DL) (LeCun、Bengio 和 Hinton,2015) 发挥了核心作用,这是一种基于人工神经网络的技术,旨在有效支持学习。由于 DL 与强化学习 (RL,即代理通过与现实世界交互进行学习并相应地获得奖励或惩罚的概念) 相结合,它已被证明能够提供有时超越人类的表现。一个典型的例子是 AlphaGo 计算机程序成功地在围棋比赛中不断击败世界冠军,同时为成功的游戏策略提供了新的见解。这些突破性的成就让人们对人工智能及其所能实现的目标过度自信,尤其是在短期内。风险投资蜂拥而至人工智能初创企业。人们期待自动驾驶汽车随时出现在我们的道路上。然而,最近发生的一些严重事件已经敲响了警钟。涉及原型自动驾驶汽车的事故已导致人员伤亡(Tesla Deaths,2020 年),这让人们质疑该技术在人机密切互动的潜在危险情况下的使用是否真的准备就绪。令人惊讶的是,这些事故是由于车辆未能执行相对简单的任务造成的,例如物体检测或障碍物跟踪和避让(Hawkins,2019 年)。事实上,在 AI 能够安全地部署到高风险和潜在危险的情况下之前,需要具备更为复杂的功能。对当前 AI 使用的期望可能需要修改。以自动驾驶为例。智能汽车需要实时对人类行为做出可靠的预测,以便预先调整速度和路线,以应对儿童可能突然穿过马路的决定。深度神经网络可以有效地识别流媒体视频中的人类动作,如运动模式(Singh、Saha、Sapienza、Torr 和 Cuzzolin,2017 年)。然而,后者可能具有欺骗性,因为人类可以根据自己的心理过程、想法和动机以及他们周围看到的事物突然改变主意。在我们的例子中,之前在人行道上走向学校的孩子们可能会看到马路对面有一辆冰淇淋车,并决定冲过马路去买冰淇淋。在如此复杂的环境中,没有一个预测系统仅仅基于过去观察到的运动来运作,就不可能准确可靠,也不需要考虑上下文和其他相关主体的性质。另一方面,人类可以预测其他人的未来行为,即使没有运动,只需快速评估相关人员的“类型”和他们周围的场景(例如例如,站在走廊里的老人很可能会决定乘坐电梯,而不是走楼梯)。这表明人工智能需要解决“热”认知问题,比如人的思维是如何受到其情绪状态影响的(Lawrence、Clark、Labuzetta、Sahakian & Vyakarnum,2008 年;Taylor Tavares、Drevets & Sahakian,2003 年)。热认知是指情绪和社会认知,包括心智理论(ToM)。它与“冷”认知形成对比,在“冷”认知中,信息处理与情感无关。社会认知旨在通过研究潜在的认知过程来理解社会现象(即人们与他人打交道的方式)。随着能够表现出一定(有限)智能的人工智能的出现,这一概念需要扩展到人类如何与智能机器(例如航空公司的对话机器人)打交道,反之亦然。
在当今快节奏的世界中,人工智能已成为一个广泛讨论的话题,它已从科幻小说中的概念转变为影响我们日常生活的现实。人们对人工智能及其将想象力融入日常生活的能力着迷。本文旨在探讨人工智能的概念、发展历程、各种类型的人工智能、训练模型、优势以及其多样化应用的案例。人工智能是指开发能够执行需要人类智能的任务的计算机系统。它通过机器学习、自然语言处理、计算机视觉和机器人技术等技术,帮助处理大量数据、识别模式并根据收集的信息做出决策。人工智能涵盖学习、推理、感知、解决问题、数据分析和语言理解等能力。人工智能的最终目标是创造出能够模拟人类能力并以更高的效率和精度执行各种任务的机器。人工智能领域有可能彻底改变我们日常生活的各个方面,例如虚拟个人助理、自动驾驶汽车、医疗诊断和治疗、推荐系统和欺诈检测。人工智能已融入众多行业和日常生活,展现出其多样化的应用。Siri、Google Assistant 和 Amazon Alexa 等虚拟个人助理利用人工智能进行自然语言处理和机器学习,从而提供更精准的响应。自动驾驶汽车使用人工智能算法分析传感数据,并进行实时驾驶决策。医疗保健专业人员利用 IBM Watson for Health 和 Google DeepMind 等平台,将人工智能算法应用于医疗诊断和治疗。Netflix、Amazon 和 Spotify 等在线平台利用人工智能根据用户行为和偏好提供个性化推荐。金融机构利用人工智能通过分析数据的算法实时检测欺诈活动。人工智能 (AI) 是一个复杂的决策过程,在某些领域超越了人类的能力。人工智能机器的一个关键特性是重复学习,这使它们能够从现实生活中的事件中学习并与人类互动。这种学习过程被称为机器学习,是人工智能的一个子领域。由于缺乏准确性和热情,人类难以完成重复性任务。相比之下,人工智能系统在其任务中表现出卓越的准确性。人工智能在医疗保健、零售、制造和银行等各个领域都有广泛的应用。人工智能主要分为两类:弱人工智能(Narrow AI)和强人工智能(General AI)。弱人工智能是指专为特定任务或特定范围的任务而设计的人工智能系统。这些系统在其指定领域表现出色,但缺乏广泛的认知能力。其特征包括专业化能力、应用范围有限以及缺乏意识。狭义人工智能的例子包括虚拟个人助理、推荐系统、图像识别软件、聊天机器人和自动驾驶汽车。而广义人工智能则旨在全面模拟人类智能,包括推理、解决问题、学习和适应新情况的能力。广义人工智能的特征包括类似人类的认知能力、适应性以及在各种任务和领域中概括知识的能力。目前,狭义人工智能是人工智能最常用的形式,广泛应用于各行各业。狭义人工智能的例子包括Siri和Alexa等虚拟个人助理、推荐系统、图像识别软件、聊天机器人和自动驾驶汽车。随着研究人员不断突破人工智能的界限,他们提出了不同级别的人工智能能力。广义人工智能就是这样一个概念,它被认为具有自我意识、意识和主观体验。然而,达到这一水平仍然是一个理论挑战。广义人工智能的发展仍是一个持续研究的领域。另一个极端是超级人工智能,也称为人工智能超级智能 (ASI)。这种类型的人工智能几乎在各个方面都超越了人类智能,并对社会和人类的未来产生重大影响。超级人工智能的特点包括认知优势、快速学习和适应能力,这些特点可以推动各个领域的快速发展。超级人工智能的发展也引发了人们对其潜在社会影响的担忧,包括与控制相关的风险、与人类价值观的契合度以及对人类生存的威胁。尽管目前还处于理论阶段,但研究人员正在积极探索其发展带来的影响和挑战。相比之下,反应式机器是最基本的人工智能类型,纯粹是反应式的。它们不会形成记忆,也不会利用过去的经验来做出决策。例如,IBM 的“深蓝”国际象棋超级计算机在 1997 年击败了国际象棋大师加里·卡斯帕罗夫。这些机器可以感知世界并采取行动,而无需存储任何记忆。而记忆有限的机器可以回顾过去,并根据观察结果做出决策。一个常见的例子是自动驾驶汽车,它会观察其他车辆的速度和方向,并相应地进行调整。这需要在特定时间内监控车辆的驾驶情况。这些信息不会存储在机器的经验库中。基于心智理论的机器可以理解人类的信念、情绪、期望等,并做出情绪化的反应。索菲亚就是这类人工智能的典型例子,尽管该领域的研究仍在进行中。换句话说,先进的机器正在被开发,它们对世界及其实体(包括人类和动物)有着更深入的理解。这些机器将能够回答简单的“假设”问题,并具备同理心,从而更好地理解他人的观点。更重要的飞跃是创造出具有自我意识的机器,它们能够意识到自身身份并预测他人的感受。这种智能水平将代表人工智能研究的重大突破。人工智能 (AI) 的工作原理是通过算法、计算能力和来自各种来源的数据来利用海量数据。该过程包括收集相关数据,对其进行预处理以确保其清洁度和结构化,根据任务需求选择合适的算法,使用标记或未标记数据训练模型,评估其性能,并将其部署到生产环境中执行实际任务。人工智能功能广泛而多样,涵盖各种随时间推移进行调整和改进的技术。这使得模型能够通过持续学习在动态环境中保持相关性和准确性。在线学习、迁移学习和强化学习等技术有助于从经验和反馈中获取新知识。在推理过程中,经过训练的人工智能模型会运用其学习到的模式和表征,对新数据进行预测或决策。此过程包括将输入数据输入模型,并根据模型的内部工作原理获得输出预测或分类。人工智能系统依靠数据、算法和计算能力从经验中学习、做出决策并自主执行任务。人工智能系统的具体功能取决于其架构、算法以及其设计目标任务的性质。人工智能的应用领域广泛,已被广泛应用于医疗保健、金融、零售、制造、交通运输、教育、市场营销、游戏、安全和自然语言处理等各个行业。这些应用包括诊断、患者预后预测、个性化治疗方案、信用评分、欺诈检测、客户服务、需求预测、供应链优化、智能游戏角色、面部识别、入侵检测、机器翻译、情绪分析等等。人工智能的未来很可能涉及机器学习、自然语言处理和计算机视觉的进一步发展,从而为各种应用和行业带来功能日益强大、集成度更高的系统。人工智能的潜在增长领域包括医疗保健、金融、交通、客户服务、刑事司法决策、招聘、教育以及其他涉及道德考虑的敏感领域。人工智能 (AI) 是一种使计算机和机器能够模拟人类学习、解决问题和决策等能力的技术。AI 应用程序和设备可以识别物体、理解人类语言、从新信息中学习,并向用户和专家提供建议。AI 研究的最新焦点是生成式 AI,它可以创建文本、图像和视频等原创内容。生成式 AI 依赖于机器学习 (ML) 和深度学习技术。深度学习彻底改变了机器学习领域,它使算法能够在无需人工干预的情况下从大量未标记数据集中进行预测。这项技术尤其适用于自然语言处理、计算机视觉以及其他需要在海量数据中识别复杂模式和关系的任务。因此,深度学习为我们日常生活中的大多数 AI 应用提供支持。深度学习还支持多种先进技术,包括半监督学习,它结合了监督学习和非监督学习,可以在标记数据和未标记数据上训练模型。此外,自监督学习从非结构化数据中生成隐式标签,而强化学习则通过反复试验和奖励函数进行学习。迁移学习允许将从一个任务或数据集获得的知识应用于另一个相关任务或不同的数据集。生成式人工智能是指能够根据用户的提示或请求创建复杂原始内容(例如文本、图像、视频或音频)的深度学习模型。这些模型对其训练数据的简化表示进行编码,然后从该表示中提取数据以生成与原始数据相似但不完全相同的新作品。生成式人工智能的最新进展促成了复杂的深度学习模型类型的发展,包括变分自编码器 (VAE)、扩散模型和变换器。变换器是许多备受瞩目的生成式人工智能工具的核心,例如 ChatGPT 和 GPT-4、Copilot、BERT、Bard 和 Midjourney。生成式人工智能的运作分为三个阶段:训练、调整和生成。该流程始于基础模型,这是一种深度学习模型,可作为多种不同类型生成式人工智能应用的基础。基础模型可以针对特定任务进行定制,例如文本或图像生成,并且通常基于海量数据进行训练。深度学习算法处理海量非结构化数据(TB级或PB级的文本、图像或视频),并使用基础模型根据提示自主生成内容。这一训练过程计算密集、耗时且成本高昂,需要数千个GPU和数周的处理时间,总计数百万美元。像Meta的Llama-2这样的开源基础模型项目使开发人员能够绕过这一步骤及其成本。为了针对特定的内容生成任务对模型进行微调,开发者可以使用诸如标记数据微调或人工反馈强化学习 (RLHF) 等技术。这需要向模型输入特定于应用的问题或提示以及正确答案。开发者定期评估其生成式 AI 应用的输出,进一步调整模型以提高准确性或相关性。另一种方法是检索增强生成 (RAG),它通过整合训练数据以外的相关来源来扩展基础模型,从而优化参数以提高准确性或相关性。生成式 AI 为各行各业和应用带来了诸多优势,包括重复性任务的自动化、更快地从数据中获取洞察、增强决策能力、减少人为错误、全天候可用以及降低物理风险。AI 可以自动化日常任务,使人类能够专注于创造性工作。它能够做出更快、更准确的预测和可靠的决策,使其成为决策支持或全自动决策的理想选择。AI 通过引导人们完成流程、标记潜在错误以及在无人干预的情况下自动执行任务来减少人为错误,尤其是在医疗保健等精准度至关重要的行业。随着机器学习算法接触更多数据并从经验中学习,其准确性不断提高,错误也随之减少。人工智能始终在线,全天候提供一致的结果。人工智能可以通过使用聊天机器人或虚拟助手来简化客户服务或支持的人员需求。它还可以简化生产流程,保持一致的产出水平,并自动执行那些可能危及人类工人的危险任务。例如,自动驾驶汽车可以降低乘客受伤风险。人工智能的实际应用包括通过聊天机器人改善客户服务、检测欺诈交易、个性化客户体验以及简化招聘流程。此外,人工智能代码生成工具可以加速应用程序开发,而预测性维护模型可以防止设备故障和停机。人工智能的快速应用带来了诸多好处,但也带来了挑战和风险。人工智能系统依赖的数据集可能容易受到篡改、偏见或网络攻击,从而损害其完整性和安全性。为了降低这些风险,组织必须在从开发到部署的整个人工智能生命周期中保护数据完整性。威胁行为者会针对人工智能模型进行盗窃、逆向工程或未经授权的操作,这可能会损害模型的架构、权重或参数。此外,还存在诸如模型漂移、偏差和治理结构崩溃等运营风险。如果不加以解决,这些风险可能会导致系统故障和网络安全漏洞,而威胁行为者可能会利用这些漏洞。为了优先考虑安全和道德,组织必须开发透明、可解释、公平的人工智能系统,包容、稳健、安全且可问责。人工智能伦理是一个多学科领域,旨在优化人工智能的有益影响,同时降低风险。人工智能伦理的原则包括可解释性、公平性和透明性。可解释的人工智能使人类用户能够解读算法产生的结果和输出。公平性和包容性要求在数据收集和模型设计过程中最大限度地减少算法偏差。建立多元化的团队对于创建包容性的人工智能系统至关重要。稳健的人工智能能够处理异常情况而不会造成损害,能够抵御有意和无意的干扰,并防止漏洞。问责制要求对人工智能的开发、部署和结果建立明确的责任和治理结构。与人工智能伦理相关的共同价值观包括可解释性、公平性、包容性、稳健性、安全性、问责制、透明性和责任感。用户必须了解人工智能的开发方式、功能、优势和劣势。提高透明度可以为人工智能模型和服务的创建提供宝贵的见解。确保隐私和合规性至关重要,因为像《通用数据保护条例》(GDPR)这样的监管框架要求组织保护个人信息。这包括保护可能包含敏感数据的人工智能模型,并开发能够适应不断变化的法规的适应性系统。研究人员根据人工智能的复杂程度对其进行了分类:弱人工智能(狭义人工智能)执行特定任务,而强人工智能(通用人工智能,AGI)则具有理解、学习和应用知识处理各种任务的能力,超越人类智能。具有自我意识的人工智能系统的概念仍是一个有争议的话题。人工智能发展的关键里程碑包括:- 1950 年:艾伦·图灵出版了《计算机器与智能》,提出了“机器能思考吗?”的问题,并提出了图灵测试。- 1956 年:约翰·麦卡锡在达特茅斯学院的第一次人工智能会议上提出了“人工智能”一词。- 1967 年:弗兰克·罗森布拉特制造了 Mark 1 感知器,这是一台基于通过反复试验进行学习的神经网络的计算机。- 1980 年:使用反向传播算法的神经网络在人工智能开发中得到广泛应用。 1995年,斯图尔特·罗素和彼得·诺维格出版了《人工智能:一种现代方法》,这是一本关于人工智能的权威教科书,探讨了人工智能的四个潜在目标或定义。大约在同一时期,IBM的“深蓝”国际象棋系统在一场对决中击败了世界冠军加里·卡斯帕罗夫。大数据和云计算时代到来,使企业能够管理用于训练人工智能模型的大型数据资产。21世纪初,人工智能取得了重大进展,包括约翰·麦卡锡在其2004年的论文《什么是人工智能?》中对人工智能的定义。数据科学开始成为一门热门学科,IBM Watson击败了《危险边缘!》冠军肯·詹宁斯和布拉德·鲁特。2015年,百度的 Minwa 超级计算机使用卷积神经网络识别图像的准确率高于人类。同年,在 DeepMind 的 AlphaGo 程序击败世界围棋冠军李索孛后,谷歌以 4 亿美元收购了 DeepMind。2020 年代,大型语言模型 (LLM) 兴起,例如 OpenAI 的 ChatGPT,它们显著提高了人工智能性能和推动企业价值的潜力。生成式人工智能实践使深度学习模型能够在大型数据集上进行预训练。截至 2024 年,人工智能趋势表明它将持续复兴,多模态模型通过结合计算机视觉和 NLP 功能提供更丰富的体验。IBM 强大的人工智能战略:推进值得信赖的人工智能以获得竞争优势一种利用人工智能力量的全面方法,包括创造竞争优势、在整个业务中扩展人工智能以及推进值得信赖的人工智能。