机器已经走了很长一段路。他们继续填补工厂的地板和制造工厂,但它们的功能不仅仅是手动活动,直到最近才能进行性能。评判歌曲竞赛,驾驶汽车和检测欺诈性交易是机器现在能够模拟的复杂任务的三个示例。,但是这些非凡的壮举引发了一些观察者的恐惧。他们的恐惧的一部分坐落在生存主义不安全感的脖子上,并引起了一个深厚的问题,即如果什么?如果智能机器在优胜党的斗争中打开我们该怎么办?如果智能机器具有人类从未打算授予机器的能力的后代,该怎么办?如果奇点的传说是真的?另一个值得注意的恐惧是对工作保障的威胁,如果您是出租车司机或会计师,则有一个有效的理由担心。根据英国广播公司(BBC)在2015年出版的国家统计局的联合研究,包括律师工作的职业职业(77%),服务员(90%),特许会计师(95%),接待员(96%)(96%)和出租车司机(57%)在20335年度的自动化机会很高。[1]然而,应仔细阅读有关机器和人工智能(AI)未来进化的计划工作自动化和水晶球的研究。在超级智能中:路径,危险,策略,作者尼克·博斯特罗姆(Nick Bostrom)讨论了对人工智能目标的持续重新部署,以及“二十年来是一个美好的地方……足以引起人们的注意和相关性,但足以使一系列突破……可能发生了。” (
5 Jonas Schuett,“定义人工智能监管范围”,法律优先项目工作文件第 9 号 (2021 年),https://papers.ssrn.com/abstract=3453632。6 白宫,“白宫与首席执行官就推进负责任的人工智能创新举行会议的宣读”,2023 年 5 月 4 日,https://www.whitehouse.gov/briefing-room/statements-releases/2023/05/04/readout-of-white-house-meeting-with-ceos-on-advancing-responsible-artificial-int elligence-innovation/。 7 “人工智能监督:人工智能规则”,2023 年 5 月 16 日,https://www.judiciary.senate.gov/committee-activity/hearings/oversight-of-ai-rules-for-artificial-intelligence。8 António Guterres,“秘书长在安全理事会关于人工智能的讲话”(联合国安全理事会,2023 年 7 月 18 日),https://www.un.org/sg/en/content/sg/speeches/2023-07-18/se cretary-generals-remarks-the-security-council-artificial-intelligence。 9 ABP News Bureau,“金砖国家呼吁建立有效的全球人工智能框架,强调道德发展”,ABP News Live,2023 年 6 月 2 日,https://news.abplive.com/technology/ai-brics-nations-cal-for-effective-global-framework-on-artificial-intelligence-emphasise-on-ethical-development-1606406。10 Sam Altman、Greg Brockman 和 Ilya Sutskever,“超级智能治理”,OpenAI,2023 年 5 月 22 日,https://openai.com/blog/governance-of-superintelligence。11 谷歌首席执行官呼吁制定全球人工智能监管规则(60 分钟,2023 年 4 月 16 日),https://www.youtube.com/watch?v=aNsmr-tvQhA。 12 Brad Smith,“治理人工智能:未来蓝图”(微软,2023 年 5 月 25 日)。 13 “苏纳克称英美将在人工智能安全方面展开合作”,路透社,2023 年 6 月 8 日,https://www.reuters.co m/technology/britain-us-work-together-ai-safety-says-sunak-2023-06-08/。 14 “英国将主办首届全球人工智能峰会”,GOV.UK,2023 年 6 月 7 日,https://www.gov.uk/g overnment/news/uk-to-host-first-global-summit-on-artificial-intelligence。 15 我们将“民用”人工智能定义为除由国家直接授权为军事或情报部门等敏感目的而开发的人工智能以外的所有人工智能。 16 Bommasani 等人,“论基础模型的机遇和风险”; Anderljung 等人,“前沿人工智能监管”。
对人工智能伦理的担忧比人工智能本身更古老。“人工智能”一词最早由麦卡锡及其同事于 1955 年使用(McCarthy et al.1955 )。然而,1920 年,恰佩克已经发表了他的科幻剧,其中遭受虐待的机器人反抗人类的暴政(Capek 2004 ),到 1942 年,阿西莫夫提出了他著名的三条“机器人定律”,即机器人不伤害人类、不伤害其他机器人、不伤害自己(Asimov 1950 )。在上个世纪的大部分时间里,当人工智能主要局限于研究实验室时,对人工智能伦理的担忧大多局限于未来主义小说和幻想作家。在本世纪,随着人工智能开始渗透到生活的几乎所有方面,对人工智能伦理的担忧也开始渗透到主流媒体。在本专栏中,我简要分析了关于人工智能的三大类伦理问题,然后强调了另一个尚未引起足够重视的问题。关于人工智能伦理的第一类担忧——我们称之为超级智能类——涉及对机器有朝一日可能变得比人类更聪明并损害人类利益的担忧。在这种担忧的极端情况下,人们担心人工智能代理可能会接管世界,然后奴役或消灭人类。仅举一个例子,Bostrom ( 2014 ) 想象了一个未来世界,其中超级智能机器人被要求制作回形针,机器人追求这一目标,直到它消耗掉地球上的所有资源,从而危及人类的生存。一些对超级智能机器的恐惧似乎源于对智能的机械“算法观点”,其中智能存在于代理的大脑中,而让机器超级智能则等待着主算法的发明。然而,智能一般是
罗马尼亚雅西 analinaichim@gmail.com 摘要:人工智能 (AI) 的使用在各个行业和领域一直在稳步增长,教育也不例外。人工智能有可能发挥重要作用的一个领域是教育领域的多样性管理。借助人工智能,教育机构可以为学生、教师和员工创造一个更具包容性和多样性的环境。 关键词:人工智能、多样性、管理、教育 JEL 分类:I2 简介人工智能 (AI) 已成为许多科学领域的知名工具,包括教育领域。人工智能与教育的融合不仅有可能彻底改变我们的教学方式,而且人工智能在教育多样性管理方面也受到关注。由于移民、全球化和多元文化等多种因素,多样性一直是教育中的一个关键问题,世界各地的学校都面临着确保所有学生都能获得平等学习机会的压力。人工智能工具开始用于应对这一挑战,以提供满足学生不同需求的个性化学习体验。在本文中,我们将探讨人工智能在教育多样性管理中的应用,并研究其潜在的好处和挑战。我们还将讨论人工智能在该领域的一些当前应用,并探索未来使用人工智能创建更具包容性的学习环境的可能性。文献综述到目前为止,各种科学家和计算机专家都已经探讨了使用人工智能的各个方面。首先,瑞典哲学家、《超级智能:道路、危险、策略》(2014 年)一书的作者尼克·博斯特罗姆 (Nick Bostrom) 研究了人工智能的潜在风险和好处。Bostrom (2014) 提出的主要担忧之一是“智能爆炸”的风险,即人工智能系统变得比人类更聪明,能够快速自我改进,从而导致智力呈指数级增长。博斯特罗姆认为,如果发生这种情况,可能很难控制超级智能人工智能的行为,并可能对人类构成生存风险。另一方面,博斯特罗姆也承认人工智能的潜在好处,例如提高生产力,
人工智能伦理博士奖学金 都柏林城市大学伦理研究所现邀请申请为期四年的全额资助(津贴和注册费)博士职位,重点研究人工智能伦理。 申请截止日期:2022 年 11 月 30 日 入围候选人面试:12 月 5 日至 9 日 博士学位开始日期:2023 年 2 月 1 日 博士项目。您可以自由选择人工智能伦理一般领域内的主题。符合条件的主题示例包括机器意识和合成现象学、自主系统、人工智能道德主体、社会影响、机器伦理、自动决策系统、算法偏见、语言模型、AGI、超级智能、隐私、监视和不透明度。当然,还有许多其他符合条件的主题。申请人请起草一份 1-2 页的提案,描述他们希望在博士学位期间具体研究的内容。提案应详细说明 1) 研究目标、2) 方法论和 3) 对当前辩论的贡献。研究环境。在攻读博士学位期间,您将参与两个研究中心:伦理学研究所和 ADAPT 研究中心。伦理学研究所涵盖广泛的主题,因为它从事科学、技术、医疗保健、商业、媒体和政府领域新兴问题的伦理分析。ADAPT 研究中心是世界领先的爱尔兰科学基金会人工智能驱动数字内容技术研究中心。该项目将由伦理学研究所所长兼 ADAPT 研究中心资助研究员 Bert Gordijn 教授监督。根据博士研究的具体主题,其他研究人员可能会被添加到监督团队中。候选人简介。理想的候选人已完成哲学或 STS 硕士或同等学位。如果您能证明自己在分析/概念问题和规范论证方法方面的专业知识,并且与拟议研究项目的主题密切相关,其他硕士学位也会被考虑。此外,申请人还应具备:• 优秀的学术记录以及与经验相关的研究和分析能力• 优秀的学术写作和演讲技巧• 将严谨的理论工作与实际应用相结合的能力• 独立工作和团队合作的能力• 对将哲学分析与其他相关学科和社会挑战联系起来的跨学科工作有浓厚的兴趣。• 在学术和非学术环境中具有良好的社交和沟通技巧• 高水平的英语书面和口语能力(请参阅 DCU 对英语语言技能的要求;申请人必须确保在提交申请之前满足这些要求。• DCU 的一般入学要求(请参阅此处的一般入学要求)
人工智能:«实验哲学»还是现实的要求?Oleh Romanchuk 1,Viktoriya Romanchuk 2 * 1伊万·弗兰科国立洛杉矶国立大学助理教授,利维夫,乌克兰2博士学位学生,伊万·弗兰科国立利维夫大学,乌克兰LVIV,乌克兰 *通信作者电子邮件id:vsesvit.journal@gmail@gmail.com export the export of power of power of power of power of power of power of pore exist of pore exist of pore exist of World of World of World of World。讨论“新社会秩序”的形成,计算机文明的哲学,影响人类生活的最新信息和通信技术的方法,全球化世界总计算机化的心理和社会经济的后果,最新的方式和含义是解决出现的许多问题。人类面临的关键挑战已经超过了智人解决这些问题的智力能力。迫切需要创建高性能的通用计算机,该计算机可以在人类智能的层面上推理和执行操作,甚至超过它,包括批判性思维和创造力。这是关于创建所谓的“人工智能”(AI)。然而,这一发明将来可能会成为对人类文明危险的根源,因为如果不作为社会存在,人工智能将在人类伦理,道德,心理学之外发挥作用。担心世界对人工智能的迷恋的原因是非常真实的。没有人可以预测超级智能融入社会的后果。文章分析了创建AI和可能出现的社会风险的问题。(LEM,2014年)。该研究的目的是由于需要对“人工智能”概念的本质进行更深入的了解,以及在大众传播和社会关系领域可以解决的那些任务的识别。关键字:信息,人工智能,人类,交流,信息社会,互联网资源,计算机,通信技术。简介计算机越来越多地技术密集型。如今,媒体上有关人工智能的科学和流行科学文章不再令人惊讶,描述了对AI对媒体,政治和经济学影响的研究,分析了人工智能和传统武器的共生可能后果,以及更多。许多原始作品致力于此问题:( Wiener,1948年),(Turing,1950),(Andrew,1985),(Luger,2008),(Russel&Norvig,2006)等。在1948年,诺伯特·维纳(Norbert Wiener)将注意力集中在材料系统的属性中,以复制,存储和使用另一个系统的结构,同时确保系统适应环境(Wiener,1948)。在1950年,艾伦·图灵(Alan M. Turing)发表了上个世纪表达的最原始,最深刻的思想之一 - «计算机和智能»(图灵,1950年)。作者描述了程序(«模仿游戏»),通过该过程可以确定机器在合理意义上与人相等的时刻。此“图灵测试”成为“机器智能”的标准理论测试。测试任务假定对话者的情报水平决定了他进行对话的能力。二十年后,著名的波兰科幻作家,哲学家和未来学家Stanislaw Lem在他的文章“ Golem xiv”中指出,两个思想共存的问题 - 人类和“不人道”,生物学和人工智能,生物学和人工智能是未来的主要问题之一(Lem,1973)。在基本的哲学工作中«summa Technologiae»Stanislav Lem预测了虚拟现实的创造,人工智能,发展了人类自动进化的思想等。作者认为由于人工智学与人之间的关系,可能会出现的三种替代方法:AI永远不会超越人类的思想;如果发生这种情况,该人将能够保持对AI的控制;一个人是
在当今快节奏的世界中,人工智能已成为一个广泛讨论的话题,它已从科幻小说中的概念转变为影响我们日常生活的现实。人们对人工智能及其将想象力融入日常生活的能力着迷。本文旨在探讨人工智能的概念、发展历程、各种类型的人工智能、训练模型、优势以及其多样化应用的案例。人工智能是指开发能够执行需要人类智能的任务的计算机系统。它通过机器学习、自然语言处理、计算机视觉和机器人技术等技术,帮助处理大量数据、识别模式并根据收集的信息做出决策。人工智能涵盖学习、推理、感知、解决问题、数据分析和语言理解等能力。人工智能的最终目标是创造出能够模拟人类能力并以更高的效率和精度执行各种任务的机器。人工智能领域有可能彻底改变我们日常生活的各个方面,例如虚拟个人助理、自动驾驶汽车、医疗诊断和治疗、推荐系统和欺诈检测。人工智能已融入众多行业和日常生活,展现出其多样化的应用。Siri、Google Assistant 和 Amazon Alexa 等虚拟个人助理利用人工智能进行自然语言处理和机器学习,从而提供更精准的响应。自动驾驶汽车使用人工智能算法分析传感数据,并进行实时驾驶决策。医疗保健专业人员利用 IBM Watson for Health 和 Google DeepMind 等平台,将人工智能算法应用于医疗诊断和治疗。Netflix、Amazon 和 Spotify 等在线平台利用人工智能根据用户行为和偏好提供个性化推荐。金融机构利用人工智能通过分析数据的算法实时检测欺诈活动。人工智能 (AI) 是一个复杂的决策过程,在某些领域超越了人类的能力。人工智能机器的一个关键特性是重复学习,这使它们能够从现实生活中的事件中学习并与人类互动。这种学习过程被称为机器学习,是人工智能的一个子领域。由于缺乏准确性和热情,人类难以完成重复性任务。相比之下,人工智能系统在其任务中表现出卓越的准确性。人工智能在医疗保健、零售、制造和银行等各个领域都有广泛的应用。人工智能主要分为两类:弱人工智能(Narrow AI)和强人工智能(General AI)。弱人工智能是指专为特定任务或特定范围的任务而设计的人工智能系统。这些系统在其指定领域表现出色,但缺乏广泛的认知能力。其特征包括专业化能力、应用范围有限以及缺乏意识。狭义人工智能的例子包括虚拟个人助理、推荐系统、图像识别软件、聊天机器人和自动驾驶汽车。而广义人工智能则旨在全面模拟人类智能,包括推理、解决问题、学习和适应新情况的能力。广义人工智能的特征包括类似人类的认知能力、适应性以及在各种任务和领域中概括知识的能力。目前,狭义人工智能是人工智能最常用的形式,广泛应用于各行各业。狭义人工智能的例子包括Siri和Alexa等虚拟个人助理、推荐系统、图像识别软件、聊天机器人和自动驾驶汽车。随着研究人员不断突破人工智能的界限,他们提出了不同级别的人工智能能力。广义人工智能就是这样一个概念,它被认为具有自我意识、意识和主观体验。然而,达到这一水平仍然是一个理论挑战。广义人工智能的发展仍是一个持续研究的领域。另一个极端是超级人工智能,也称为人工智能超级智能 (ASI)。这种类型的人工智能几乎在各个方面都超越了人类智能,并对社会和人类的未来产生重大影响。超级人工智能的特点包括认知优势、快速学习和适应能力,这些特点可以推动各个领域的快速发展。超级人工智能的发展也引发了人们对其潜在社会影响的担忧,包括与控制相关的风险、与人类价值观的契合度以及对人类生存的威胁。尽管目前还处于理论阶段,但研究人员正在积极探索其发展带来的影响和挑战。相比之下,反应式机器是最基本的人工智能类型,纯粹是反应式的。它们不会形成记忆,也不会利用过去的经验来做出决策。例如,IBM 的“深蓝”国际象棋超级计算机在 1997 年击败了国际象棋大师加里·卡斯帕罗夫。这些机器可以感知世界并采取行动,而无需存储任何记忆。而记忆有限的机器可以回顾过去,并根据观察结果做出决策。一个常见的例子是自动驾驶汽车,它会观察其他车辆的速度和方向,并相应地进行调整。这需要在特定时间内监控车辆的驾驶情况。这些信息不会存储在机器的经验库中。基于心智理论的机器可以理解人类的信念、情绪、期望等,并做出情绪化的反应。索菲亚就是这类人工智能的典型例子,尽管该领域的研究仍在进行中。换句话说,先进的机器正在被开发,它们对世界及其实体(包括人类和动物)有着更深入的理解。这些机器将能够回答简单的“假设”问题,并具备同理心,从而更好地理解他人的观点。更重要的飞跃是创造出具有自我意识的机器,它们能够意识到自身身份并预测他人的感受。这种智能水平将代表人工智能研究的重大突破。人工智能 (AI) 的工作原理是通过算法、计算能力和来自各种来源的数据来利用海量数据。该过程包括收集相关数据,对其进行预处理以确保其清洁度和结构化,根据任务需求选择合适的算法,使用标记或未标记数据训练模型,评估其性能,并将其部署到生产环境中执行实际任务。人工智能功能广泛而多样,涵盖各种随时间推移进行调整和改进的技术。这使得模型能够通过持续学习在动态环境中保持相关性和准确性。在线学习、迁移学习和强化学习等技术有助于从经验和反馈中获取新知识。在推理过程中,经过训练的人工智能模型会运用其学习到的模式和表征,对新数据进行预测或决策。此过程包括将输入数据输入模型,并根据模型的内部工作原理获得输出预测或分类。人工智能系统依靠数据、算法和计算能力从经验中学习、做出决策并自主执行任务。人工智能系统的具体功能取决于其架构、算法以及其设计目标任务的性质。人工智能的应用领域广泛,已被广泛应用于医疗保健、金融、零售、制造、交通运输、教育、市场营销、游戏、安全和自然语言处理等各个行业。这些应用包括诊断、患者预后预测、个性化治疗方案、信用评分、欺诈检测、客户服务、需求预测、供应链优化、智能游戏角色、面部识别、入侵检测、机器翻译、情绪分析等等。人工智能的未来很可能涉及机器学习、自然语言处理和计算机视觉的进一步发展,从而为各种应用和行业带来功能日益强大、集成度更高的系统。人工智能的潜在增长领域包括医疗保健、金融、交通、客户服务、刑事司法决策、招聘、教育以及其他涉及道德考虑的敏感领域。人工智能 (AI) 是一种使计算机和机器能够模拟人类学习、解决问题和决策等能力的技术。AI 应用程序和设备可以识别物体、理解人类语言、从新信息中学习,并向用户和专家提供建议。AI 研究的最新焦点是生成式 AI,它可以创建文本、图像和视频等原创内容。生成式 AI 依赖于机器学习 (ML) 和深度学习技术。深度学习彻底改变了机器学习领域,它使算法能够在无需人工干预的情况下从大量未标记数据集中进行预测。这项技术尤其适用于自然语言处理、计算机视觉以及其他需要在海量数据中识别复杂模式和关系的任务。因此,深度学习为我们日常生活中的大多数 AI 应用提供支持。深度学习还支持多种先进技术,包括半监督学习,它结合了监督学习和非监督学习,可以在标记数据和未标记数据上训练模型。此外,自监督学习从非结构化数据中生成隐式标签,而强化学习则通过反复试验和奖励函数进行学习。迁移学习允许将从一个任务或数据集获得的知识应用于另一个相关任务或不同的数据集。生成式人工智能是指能够根据用户的提示或请求创建复杂原始内容(例如文本、图像、视频或音频)的深度学习模型。这些模型对其训练数据的简化表示进行编码,然后从该表示中提取数据以生成与原始数据相似但不完全相同的新作品。生成式人工智能的最新进展促成了复杂的深度学习模型类型的发展,包括变分自编码器 (VAE)、扩散模型和变换器。变换器是许多备受瞩目的生成式人工智能工具的核心,例如 ChatGPT 和 GPT-4、Copilot、BERT、Bard 和 Midjourney。生成式人工智能的运作分为三个阶段:训练、调整和生成。该流程始于基础模型,这是一种深度学习模型,可作为多种不同类型生成式人工智能应用的基础。基础模型可以针对特定任务进行定制,例如文本或图像生成,并且通常基于海量数据进行训练。深度学习算法处理海量非结构化数据(TB级或PB级的文本、图像或视频),并使用基础模型根据提示自主生成内容。这一训练过程计算密集、耗时且成本高昂,需要数千个GPU和数周的处理时间,总计数百万美元。像Meta的Llama-2这样的开源基础模型项目使开发人员能够绕过这一步骤及其成本。为了针对特定的内容生成任务对模型进行微调,开发者可以使用诸如标记数据微调或人工反馈强化学习 (RLHF) 等技术。这需要向模型输入特定于应用的问题或提示以及正确答案。开发者定期评估其生成式 AI 应用的输出,进一步调整模型以提高准确性或相关性。另一种方法是检索增强生成 (RAG),它通过整合训练数据以外的相关来源来扩展基础模型,从而优化参数以提高准确性或相关性。生成式 AI 为各行各业和应用带来了诸多优势,包括重复性任务的自动化、更快地从数据中获取洞察、增强决策能力、减少人为错误、全天候可用以及降低物理风险。AI 可以自动化日常任务,使人类能够专注于创造性工作。它能够做出更快、更准确的预测和可靠的决策,使其成为决策支持或全自动决策的理想选择。AI 通过引导人们完成流程、标记潜在错误以及在无人干预的情况下自动执行任务来减少人为错误,尤其是在医疗保健等精准度至关重要的行业。随着机器学习算法接触更多数据并从经验中学习,其准确性不断提高,错误也随之减少。人工智能始终在线,全天候提供一致的结果。人工智能可以通过使用聊天机器人或虚拟助手来简化客户服务或支持的人员需求。它还可以简化生产流程,保持一致的产出水平,并自动执行那些可能危及人类工人的危险任务。例如,自动驾驶汽车可以降低乘客受伤风险。人工智能的实际应用包括通过聊天机器人改善客户服务、检测欺诈交易、个性化客户体验以及简化招聘流程。此外,人工智能代码生成工具可以加速应用程序开发,而预测性维护模型可以防止设备故障和停机。人工智能的快速应用带来了诸多好处,但也带来了挑战和风险。人工智能系统依赖的数据集可能容易受到篡改、偏见或网络攻击,从而损害其完整性和安全性。为了降低这些风险,组织必须在从开发到部署的整个人工智能生命周期中保护数据完整性。威胁行为者会针对人工智能模型进行盗窃、逆向工程或未经授权的操作,这可能会损害模型的架构、权重或参数。此外,还存在诸如模型漂移、偏差和治理结构崩溃等运营风险。如果不加以解决,这些风险可能会导致系统故障和网络安全漏洞,而威胁行为者可能会利用这些漏洞。为了优先考虑安全和道德,组织必须开发透明、可解释、公平的人工智能系统,包容、稳健、安全且可问责。人工智能伦理是一个多学科领域,旨在优化人工智能的有益影响,同时降低风险。人工智能伦理的原则包括可解释性、公平性和透明性。可解释的人工智能使人类用户能够解读算法产生的结果和输出。公平性和包容性要求在数据收集和模型设计过程中最大限度地减少算法偏差。建立多元化的团队对于创建包容性的人工智能系统至关重要。稳健的人工智能能够处理异常情况而不会造成损害,能够抵御有意和无意的干扰,并防止漏洞。问责制要求对人工智能的开发、部署和结果建立明确的责任和治理结构。与人工智能伦理相关的共同价值观包括可解释性、公平性、包容性、稳健性、安全性、问责制、透明性和责任感。用户必须了解人工智能的开发方式、功能、优势和劣势。提高透明度可以为人工智能模型和服务的创建提供宝贵的见解。确保隐私和合规性至关重要,因为像《通用数据保护条例》(GDPR)这样的监管框架要求组织保护个人信息。这包括保护可能包含敏感数据的人工智能模型,并开发能够适应不断变化的法规的适应性系统。研究人员根据人工智能的复杂程度对其进行了分类:弱人工智能(狭义人工智能)执行特定任务,而强人工智能(通用人工智能,AGI)则具有理解、学习和应用知识处理各种任务的能力,超越人类智能。具有自我意识的人工智能系统的概念仍是一个有争议的话题。人工智能发展的关键里程碑包括:- 1950 年:艾伦·图灵出版了《计算机器与智能》,提出了“机器能思考吗?”的问题,并提出了图灵测试。- 1956 年:约翰·麦卡锡在达特茅斯学院的第一次人工智能会议上提出了“人工智能”一词。- 1967 年:弗兰克·罗森布拉特制造了 Mark 1 感知器,这是一台基于通过反复试验进行学习的神经网络的计算机。- 1980 年:使用反向传播算法的神经网络在人工智能开发中得到广泛应用。 1995年,斯图尔特·罗素和彼得·诺维格出版了《人工智能:一种现代方法》,这是一本关于人工智能的权威教科书,探讨了人工智能的四个潜在目标或定义。大约在同一时期,IBM的“深蓝”国际象棋系统在一场对决中击败了世界冠军加里·卡斯帕罗夫。大数据和云计算时代到来,使企业能够管理用于训练人工智能模型的大型数据资产。21世纪初,人工智能取得了重大进展,包括约翰·麦卡锡在其2004年的论文《什么是人工智能?》中对人工智能的定义。数据科学开始成为一门热门学科,IBM Watson击败了《危险边缘!》冠军肯·詹宁斯和布拉德·鲁特。2015年,百度的 Minwa 超级计算机使用卷积神经网络识别图像的准确率高于人类。同年,在 DeepMind 的 AlphaGo 程序击败世界围棋冠军李索孛后,谷歌以 4 亿美元收购了 DeepMind。2020 年代,大型语言模型 (LLM) 兴起,例如 OpenAI 的 ChatGPT,它们显著提高了人工智能性能和推动企业价值的潜力。生成式人工智能实践使深度学习模型能够在大型数据集上进行预训练。截至 2024 年,人工智能趋势表明它将持续复兴,多模态模型通过结合计算机视觉和 NLP 功能提供更丰富的体验。IBM 强大的人工智能战略:推进值得信赖的人工智能以获得竞争优势一种利用人工智能力量的全面方法,包括创造竞争优势、在整个业务中扩展人工智能以及推进值得信赖的人工智能。