最近,人们越来越热衷于将一切无线化。与对海量数据的需求激增的高性能蜂窝通信相比,这些小型无线传感器和执行器节点需要低功耗、低成本和高系统集成度。典型的 CMOS 片上系统需要许多片外组件才能正常运行,即充当精确频率参考的晶体振荡器和天线。本论文的主要目标是解决在没有这些组件的情况下以尽可能低的功率水平运行所面临的障碍。这是朝着无线通信无处不在迈出的一步。在这项工作中,对收发器性能的评估是从功率、性能和物理尺寸的角度进行的。演示了不使用片外频率参考的情况下兼容低功耗标准的 2.4 GHz 发射器 (TX) 的运行。这些 2.4 GHz 收发器 (TRX) 称为单芯片微尘,在低功率水平下运行,无需片外频率参考。第一个单芯片节点展示了在温度变化导致本地振荡器漂移的情况下的 RF 芯片间通信。它使用自由运行的 LC 谐振振荡器,该振荡器通过周期性网络流量校准以防漂移。下一个单芯片节点是 2.4 GHz、802.15.4 TRX、BLE 广告 TX 片上系统,带有集成数字基带和 Cortex M0。同样,该芯片不使用片外频率参考。最后,介绍了一种带有集成天线的高频收发器设计,为完全片上解决方案铺平了道路。
随着芯片技术的发展,摩尔定律在微电子工业中的运用可能接近极限,三维集成电路(3D-IC)技术可以克服摩尔定律的限制,具有高集成度、高性能和低功耗的优势[1-3]。因此,3D IC中的芯片堆叠引起了电子工业的广泛关注,不同的键合技术被开发出来以保证芯片(或晶圆)的垂直堆叠,其中采用焊料的TLP键合已被提出作为实现低温键合和高温服务的有效方法。Talebanpour [4]采用Sn3.0Ag0.5Cu作为3D结构中的互连材料,经260 ℃回流温度和时效后获得了全IMC(Cu6Sn5/Cu3Sn)。储[5]研究了低温稳态瞬态液相(TLP)键合Cu/Sn/Cu和Ni/Sn/Ni焊点,分别检测到Cu 6 Sn 5 、Cu 3 Sn、Ni 3 Sn 4 、Ni 3 Sn 2 。陈[6]研究了基于TLP键合的Cu/Sn3.5Ag/Cu和Cu/Sn3.5Ag/Cu15Zn,焊点中检测到了Cu 6 Sn 5和Cu 6 (Sn, Zn) 5 ,研究发现Cu 6 Sn 5 由于其晶粒结构均一且脆性大,会降低键合可靠性;而Zn能有效地将均一晶粒结构修改为交错结构,从而提高键合可靠性。在3D IC结构中,完整IMC焊点在热循环载荷下的可靠性一直是重要的研究方向,有限元程序可以用来计算IMC焊点的应力-应变响应和疲劳寿命。田 [7] 研究了三维IMC接头的应力分析和结构优化
摘要:忆阻器件由于结构简单、集成度高、功耗低、运行速度快等特点,在存储器、逻辑、神经网络和传感应用中备受关注。特别是,由有源门控制的多端结构能够并行处理和操纵信息,这无疑将为神经形态系统提供新概念。通过这种方式,可以设计基于晶体管的突触器件,其中突触后膜中的突触权重被编码在源漏通道中,并由突触前终端(门)修改。在这项工作中,我们展示了强关联金属氧化物中可逆场诱导金属-绝缘体转变 (MIT) 的潜力,可用于设计坚固而灵活的多端忆阻晶体管类器件。我们研究了在 YBa 2 Cu 3 O 7 − δ 薄膜上图案化的不同结构,这些结构能够显示栅极可调的非挥发性体积 MIT,由系统内的场诱导氧扩散驱动。这些材料的关键优势是不仅可以在受限的细丝或界面中均匀调整氧扩散,就像在广泛探索的二元和复合氧化物中观察到的那样,而且可以在整个材料体积中均匀调整。与基于导电细丝的器件相比,关联氧化物的另一个重要优势是显著减少了循环间和器件间的差异。在这项工作中,我们展示了几种器件配置,其中漏极-源极通道(突触权重)之间的横向传导由主动栅极可调体积电阻变化有效控制,从而为设计稳健且灵活的基于晶体管的人工突触提供了基础。
镁(以下称“Mg”)合金的比重为1.8以下,仅为轻量化材料铝(以下称“Al”)的三分之二。最近,在薄型笔记本电脑机身中,Mg合金的轻量化价值得到了认可。住友电气工业株式会社镁合金开发部将独有的急速凝固技术*1应用于通用的AZ91D Mg合金*2,制造出具有轻量化、高强度、高耐腐蚀性特点的AZ91板材,并致力于将其实际应用于薄型笔记本电脑机身。最近,受新型冠状病毒感染的肺炎疫情影响,社会环境发生了重大变化,个人和社会规范发生重大转变,包括个人交流和企业运营在内的所有社会活动都正在向数字化和线上化转变。为了普及推动数字化的IoT、AI技术以及加速其应用的第五代移动通信系统(以下简称“5G”),必须完善基础设施。人们期待包括个人和产业在内的社会能够利用这些技术创造新价值、实现社会创新。(1)实现社会创新的一大障碍是基础设施建设时电子设备的发热量。(2)作为重要电子设备和零部件的CPU所使用的半导体集成度不断提高,发热量集中化。预计随着IoT和5G的应用,功耗会增加,局部发热量也会增大。(2)近年来,薄型笔记本电脑、智能手机等电子设备机身的体积和尺寸不断缩小。受这些因素影响,预计发热量将超过电子设备的允许工作范围。电子设备的冷却技术将变得比以往任何时候都更加重要。 (2)减少
1. 简介 在汽车行业,电气解决方案的高度集成是一大趋势 [1]。因此,行业面临着提供集成度更高、更可靠、更节能的设备的需求 [1-4]。这些设备应安装在汽车有限的空间内。这种内部空间限制以及不断增加的功率密度需要增强散热以在减小尺寸的同时提高性能 [2]。PCB 嵌入式技术是解决这些问题的绝佳解决方案。事实上,它通过优化互连、减小尺寸和重量以实现小型化来提高电源模块性能 [1, 5]。这种优化可降低寄生电感并获得更好的热管理 [1, 6, 7]。本文选择的一个应用示例是智能皮带驱动起动发电机。对于此应用,我们采用了 PCB 嵌入式技术。对于后一种情况,本研究涉及一种新电源模块概念的可行性,该概念包含四个 100 V Si MOSFET ST315N10F7D8,作为单个开关并联,高度集成在 48 V/400 A 电机中,一方面减小体积和重量,另一方面提高热管理和芯片粘接的机械强度。该技术基于将 Si MOSFET 集成到 PCB 内部,使用银浆烧结进行芯片粘接和预浸渍复合纤维层压。本文将重点描述更为坚固的组装工艺,随后对原型进行电气测试以展示其功能,而机械测试将展示其强度。2. PCB 嵌入式组装设计其原理是使用基于厚铜板的绝缘金属基板 (IMS) 来传输大电流并优化散热。芯片堆叠在两块铜板之间以便于嵌入。芯片和铜板之间的连接由银烧结工艺确保。电绝缘由层压在这些铜板之间的预浸渍复合纤维层实现(见图 1)。此外,芯片栅极烧结到铜箔上,并且可以通过镀通孔 (PTH) 访问该铜箔。
摘要 — 为满足对小型天线、更高性能和更低成本的需求,大多数下一代架构都要求更高的集成电路 (IC) 芯片集成度。与传统封装配置相比,2.5D 和 3D 等先进芯片封装技术提供了更高的芯片兼容性和更低的功耗。鉴于这些优势,采用先进封装是不可避免的。在先进封装中,铜柱互连是一项关键的支持技术,也是下一个合乎逻辑的步骤。该技术提供了多种优势,包括提高抗电迁移能力、提高电导率和热导率、简化凸块下金属化 (UBM) 和提高输入/输出 (I/O) 密度。铜柱允许的细间距有助于该技术取代焊料凸块技术,后者的最小间距约为 40 微米。更细的间距允许更高的 I/O 数量,从而提高性能。在本研究中,成功展示了在高密度中介层上超薄单片微波集成电路 (MMIC) 氮化镓 (GaN) 细间距铜柱倒装芯片组件的组装。使用 150 毫米间距铜柱倒装芯片,评估了有机印刷电路板 (PCB) 和硅中介层的组装工艺,并评估了化学镀镍浸金 (ENIG) 和共晶锡铅焊盘表面处理。对于 2D/2.5D/3D 组装工艺开发,使用了标准的内部拾取和放置工具,然后进行大规模焊料回流,最后进行底部填充以进行可靠性测试。互连稳健性由芯片拉力强度、助焊剂冲压调查和横截面决定。完成了 GaN 铜柱倒装芯片 2D 组装的完整可靠性和鉴定测试数据,包括 700 次温度循环和无偏高加速温度/湿度应力测试 (UHAST)。将铜柱技术添加到 GaN MMIC 芯片中,将 GaN Cu 柱技术集成到 2.5D/3D 封装技术中,并在中介层级评估 GaN Cu 柱互连可靠性都是这项工作的独特之处。
电话:707-628-5107 电子邮件:jbahena@veeco.com 摘要 5G、物联网和其他全球技术趋势的需求,加上缩小工艺节点成本的增加,已导致向更集成的封装要求转变。扇出晶圆级封装、2.5D/3D IC 封装和异构集成等先进封装技术的出现,为更小尺寸、更高功能和带宽带来了潜力。为了实现这些技术,通常需要对器件晶圆进行背面处理或减薄。这就要求使用临时粘合材料将器件晶圆粘附到刚性载体晶圆上,以便在处理和加工过程中提供机械支撑。释放载体后,必须彻底清除器件晶圆上的临时粘合材料。许多此类粘合剂都暴露在高功率激光或高温下,这使得清除更具挑战性。临时键合材料去除的亚微米级颗粒清洁要求也达到了通常为前端处理保留的标准。这在 3D 工艺中尤其重要,例如混合键合,其中特征和间距尺寸接近 < 1 µm,清洁不充分会导致后续键合工艺失败。因此,必须仔细考虑所有处理步骤以满足严格的颗粒要求。这项工作研究了硅晶片上涂层和烘烤的临时键合材料的去除,重点是获得最佳颗粒结果的加工条件。通过进行试样级研究和测量表面特性,在烧杯级评估了几种化学物质。根据这些发现,使用可定制的单晶圆加工工具对 300 毫米晶圆进行了研究。关键词临时键合材料、湿法清洗、晶圆级封装、单晶圆加工。I.简介 虽然晶体管和节点缩放一直在不断进步,但相关的成本和复杂性要求采用其他途径来提高性能。最突出的是,先进封装中的 2.5D/3D 集成通过将不同尺寸和材料的不同组件集成到单个设备中,显示出巨大的前景 [1]。由于许多当前的集成工艺流程都需要对设备晶圆进行背面处理或减薄,因此使用临时键合和脱键合 (TBDB) 系统已被证明是必要的多种类型的集成技术已经得到开发,例如扇出型晶圆级封装 (FOWLP)、2.5D 中介层、3D 硅通孔 (TSV) 和堆叠封装 (PoP),具有高集成度、低功耗、小型化和高可靠性等预期优势 [1-3]。
3 助理教授,ECE 系,DSCE,班加罗尔,卡纳塔克邦 4 M.Tech。项目指导,教授兼系主任,ECE 系,DSCE,班加罗尔,卡纳塔克邦 摘要 本文简要回顾了可用于 VLSI 设计技术的 AI/ML 算法和应用。由于分析和开发可能减少由扩大工艺变异性带来的设计复杂性并缩短芯片制造周转时间的技术显然将成为纳米领域集成电路 (IC) 行业的一个问题。用于这些活动的传统方法大多是手动的,这需要时间和资源。相反,由于人工智能 (AI) 独特的学习策略,超大规模集成 (VLSI) 设计和测试可以利用各种新的自动化方法。利用自动学习算法,AI 和机器学习 (ML) 算法减少了理解和处理不同抽象级别内和跨不同抽象级别数据所需的时间和精力,从而提高了 IC 产量并加快了生产周转时间。本文研究了以前用于 VLSI 设计和生产的自动化 AI/ML 方法。本文介绍的工作是 PG (M.Tech) 学生的技术研讨会报告,这是 PG 课程第二学期每个学生必须就任何主题进行的研讨会的一部分。关键词:VLSI、设计、CMOS、芯片、晶体管 1.简介在微电子领域,CMOS 技术长期占据主导地位。在单个芯片上,制造的晶体管数量急剧增加。由于晶体管经过多代技术不断缩小尺寸,这些设备的密度和性能得到了提高,这极大地促进了微电子产业的发展。现代超大规模集成 (VLSI) 技术使得在单个芯片上实现复杂的数字系统成为可能。随着晶体管尺寸变小,半导体制造工艺的复杂性增加。随着我们越来越接近原子尺寸,简单的缩放不可避免地会走到尽头。即使这些器件很小,其性能的几个方面也会随着时间的推移而下降,例如泄漏增加、增益降低以及对制造工艺波动的敏感性增加。制造差异的急剧增加严重影响了电路的功能,导致相同尺寸的晶体管性能不一致。这会影响电路的传播延迟,其表现为随机变量,使时序收敛程序更加困难,并大大降低芯片产量。设计流程中需要采用未来技术节点的经济实惠的设计和先进的设计技术进行更精细的优化,以保持 VLSI 系统的性能趋势,以应对工艺变化增加带来的日益严峻的挑战,设计复杂性和芯片集成度。电子设计自动化 (EDA) 工具在克服设计复杂性方面的有效性
评论论文 DOI:10.34343/ijpest.2020.14.e01002 下一代互联传感器的微电子技术挑战 Olivier A. Bonnaud 1, 2, * 1 雷恩第一大学微电子与微传感器系,IETR UMR CNRS 6164,雷恩,法国 2 GIP-CNFM,法国格勒诺布尔 MINATEC 方向国家微电子和纳米技术培训协调中心 * 通讯作者:Olivier.bonnaud@univ-rennes1.fr (OA Bonnaud) 收到日期:2019 年 11 月 24 日 修订日期:2020 年 2 月 2 日 接受日期:2020 年 2 月 3 日 在线发布日期:2020 年 2 月 12 日 摘要 全球数字社会的到来正在推动物联网 (IoT) 的发展和互联对象的创造。许多联网物体都包含各种传感器,这些传感器的数量在过去 15 年里呈指数级增长。与此同时,服务器和数据中心也呈指数级增长,能源消耗也同样呈指数级增长。为了避免在 20 年内达到无法克服的全球能源限制,必须提高微电子系统的集成度,并将其能耗降低 100 倍。这涉及到微电子的所有方面,主要是基本设备、设计和电路架构。这只有通过调整人力资源,即教学方法来培养能够应对挑战的技术人员、工程师和医生,才能实现。本文讨论了联网传感器的背景、它们的能耗和联网物体未来技术的新挑战,以及法国微电子教学网络为培养能够应对挑战的未来专家而制定的战略。关键词:传感器、微电子、联网物体、技术和人力挑战。 1. 引言 21 世纪的世界正日益转向数字化社会,这导致了物联网 (IoT) 的发展和互联物体的发展。这种演变与社会数字化相对应,服务的重要性日益增加。话虽如此,工业仍必须生产这些物体。许多互联物体都包含各种传感器,以控制社会的所有活动,如健康、环境、交通、能源或安全,以及工业生产 [1]。后者对应于第四次工业革命,即工业 4.0。[2]。这就是为什么新的互联传感器系列被称为传感器 4.0。[3]。世界上这些物体的数量增长令人印象深刻,因为近 15 年来一直呈指数级增长。传感器和执行器的数量也是如此,因为每个互联系统最多可以有几十个传感器。此外,互联网接入服务器和数据中心已经大幅增长,系统的运行,数据和存储会导致功耗同样呈指数级增长。目前的预测表明,到 2040 年,物联网的功耗预计将与全球所有形式(交通、住房、通信、工业、农业)的当前能耗(2018 年)持平。这首先会对微电子系统和智能传感器的集成产生影响,这些系统必须包含越来越多的功能,包括与通信相关的功能,确保安全性和可靠性背景下的任务概况,从而增加复杂性,但必须消耗更少的能源,这显然是矛盾的。应通过发挥微电子的所有方面,包括电路设计和架构,以及涉及新材料和新电子概念的基本设备概念和制造技术,将这种消耗减少 100 倍。只有通过调整人力资源,即培训能够克服挑战的技术人员、工程师和医生的教学方法,才能实现这一转变。
在当今快节奏的世界中,人工智能已成为一个广泛讨论的话题,它已从科幻小说中的概念转变为影响我们日常生活的现实。人们对人工智能及其将想象力融入日常生活的能力着迷。本文旨在探讨人工智能的概念、发展历程、各种类型的人工智能、训练模型、优势以及其多样化应用的案例。人工智能是指开发能够执行需要人类智能的任务的计算机系统。它通过机器学习、自然语言处理、计算机视觉和机器人技术等技术,帮助处理大量数据、识别模式并根据收集的信息做出决策。人工智能涵盖学习、推理、感知、解决问题、数据分析和语言理解等能力。人工智能的最终目标是创造出能够模拟人类能力并以更高的效率和精度执行各种任务的机器。人工智能领域有可能彻底改变我们日常生活的各个方面,例如虚拟个人助理、自动驾驶汽车、医疗诊断和治疗、推荐系统和欺诈检测。人工智能已融入众多行业和日常生活,展现出其多样化的应用。Siri、Google Assistant 和 Amazon Alexa 等虚拟个人助理利用人工智能进行自然语言处理和机器学习,从而提供更精准的响应。自动驾驶汽车使用人工智能算法分析传感数据,并进行实时驾驶决策。医疗保健专业人员利用 IBM Watson for Health 和 Google DeepMind 等平台,将人工智能算法应用于医疗诊断和治疗。Netflix、Amazon 和 Spotify 等在线平台利用人工智能根据用户行为和偏好提供个性化推荐。金融机构利用人工智能通过分析数据的算法实时检测欺诈活动。人工智能 (AI) 是一个复杂的决策过程,在某些领域超越了人类的能力。人工智能机器的一个关键特性是重复学习,这使它们能够从现实生活中的事件中学习并与人类互动。这种学习过程被称为机器学习,是人工智能的一个子领域。由于缺乏准确性和热情,人类难以完成重复性任务。相比之下,人工智能系统在其任务中表现出卓越的准确性。人工智能在医疗保健、零售、制造和银行等各个领域都有广泛的应用。人工智能主要分为两类:弱人工智能(Narrow AI)和强人工智能(General AI)。弱人工智能是指专为特定任务或特定范围的任务而设计的人工智能系统。这些系统在其指定领域表现出色,但缺乏广泛的认知能力。其特征包括专业化能力、应用范围有限以及缺乏意识。狭义人工智能的例子包括虚拟个人助理、推荐系统、图像识别软件、聊天机器人和自动驾驶汽车。而广义人工智能则旨在全面模拟人类智能,包括推理、解决问题、学习和适应新情况的能力。广义人工智能的特征包括类似人类的认知能力、适应性以及在各种任务和领域中概括知识的能力。目前,狭义人工智能是人工智能最常用的形式,广泛应用于各行各业。狭义人工智能的例子包括Siri和Alexa等虚拟个人助理、推荐系统、图像识别软件、聊天机器人和自动驾驶汽车。随着研究人员不断突破人工智能的界限,他们提出了不同级别的人工智能能力。广义人工智能就是这样一个概念,它被认为具有自我意识、意识和主观体验。然而,达到这一水平仍然是一个理论挑战。广义人工智能的发展仍是一个持续研究的领域。另一个极端是超级人工智能,也称为人工智能超级智能 (ASI)。这种类型的人工智能几乎在各个方面都超越了人类智能,并对社会和人类的未来产生重大影响。超级人工智能的特点包括认知优势、快速学习和适应能力,这些特点可以推动各个领域的快速发展。超级人工智能的发展也引发了人们对其潜在社会影响的担忧,包括与控制相关的风险、与人类价值观的契合度以及对人类生存的威胁。尽管目前还处于理论阶段,但研究人员正在积极探索其发展带来的影响和挑战。相比之下,反应式机器是最基本的人工智能类型,纯粹是反应式的。它们不会形成记忆,也不会利用过去的经验来做出决策。例如,IBM 的“深蓝”国际象棋超级计算机在 1997 年击败了国际象棋大师加里·卡斯帕罗夫。这些机器可以感知世界并采取行动,而无需存储任何记忆。而记忆有限的机器可以回顾过去,并根据观察结果做出决策。一个常见的例子是自动驾驶汽车,它会观察其他车辆的速度和方向,并相应地进行调整。这需要在特定时间内监控车辆的驾驶情况。这些信息不会存储在机器的经验库中。基于心智理论的机器可以理解人类的信念、情绪、期望等,并做出情绪化的反应。索菲亚就是这类人工智能的典型例子,尽管该领域的研究仍在进行中。换句话说,先进的机器正在被开发,它们对世界及其实体(包括人类和动物)有着更深入的理解。这些机器将能够回答简单的“假设”问题,并具备同理心,从而更好地理解他人的观点。更重要的飞跃是创造出具有自我意识的机器,它们能够意识到自身身份并预测他人的感受。这种智能水平将代表人工智能研究的重大突破。人工智能 (AI) 的工作原理是通过算法、计算能力和来自各种来源的数据来利用海量数据。该过程包括收集相关数据,对其进行预处理以确保其清洁度和结构化,根据任务需求选择合适的算法,使用标记或未标记数据训练模型,评估其性能,并将其部署到生产环境中执行实际任务。人工智能功能广泛而多样,涵盖各种随时间推移进行调整和改进的技术。这使得模型能够通过持续学习在动态环境中保持相关性和准确性。在线学习、迁移学习和强化学习等技术有助于从经验和反馈中获取新知识。在推理过程中,经过训练的人工智能模型会运用其学习到的模式和表征,对新数据进行预测或决策。此过程包括将输入数据输入模型,并根据模型的内部工作原理获得输出预测或分类。人工智能系统依靠数据、算法和计算能力从经验中学习、做出决策并自主执行任务。人工智能系统的具体功能取决于其架构、算法以及其设计目标任务的性质。人工智能的应用领域广泛,已被广泛应用于医疗保健、金融、零售、制造、交通运输、教育、市场营销、游戏、安全和自然语言处理等各个行业。这些应用包括诊断、患者预后预测、个性化治疗方案、信用评分、欺诈检测、客户服务、需求预测、供应链优化、智能游戏角色、面部识别、入侵检测、机器翻译、情绪分析等等。人工智能的未来很可能涉及机器学习、自然语言处理和计算机视觉的进一步发展,从而为各种应用和行业带来功能日益强大、集成度更高的系统。人工智能的潜在增长领域包括医疗保健、金融、交通、客户服务、刑事司法决策、招聘、教育以及其他涉及道德考虑的敏感领域。人工智能 (AI) 是一种使计算机和机器能够模拟人类学习、解决问题和决策等能力的技术。AI 应用程序和设备可以识别物体、理解人类语言、从新信息中学习,并向用户和专家提供建议。AI 研究的最新焦点是生成式 AI,它可以创建文本、图像和视频等原创内容。生成式 AI 依赖于机器学习 (ML) 和深度学习技术。深度学习彻底改变了机器学习领域,它使算法能够在无需人工干预的情况下从大量未标记数据集中进行预测。这项技术尤其适用于自然语言处理、计算机视觉以及其他需要在海量数据中识别复杂模式和关系的任务。因此,深度学习为我们日常生活中的大多数 AI 应用提供支持。深度学习还支持多种先进技术,包括半监督学习,它结合了监督学习和非监督学习,可以在标记数据和未标记数据上训练模型。此外,自监督学习从非结构化数据中生成隐式标签,而强化学习则通过反复试验和奖励函数进行学习。迁移学习允许将从一个任务或数据集获得的知识应用于另一个相关任务或不同的数据集。生成式人工智能是指能够根据用户的提示或请求创建复杂原始内容(例如文本、图像、视频或音频)的深度学习模型。这些模型对其训练数据的简化表示进行编码,然后从该表示中提取数据以生成与原始数据相似但不完全相同的新作品。生成式人工智能的最新进展促成了复杂的深度学习模型类型的发展,包括变分自编码器 (VAE)、扩散模型和变换器。变换器是许多备受瞩目的生成式人工智能工具的核心,例如 ChatGPT 和 GPT-4、Copilot、BERT、Bard 和 Midjourney。生成式人工智能的运作分为三个阶段:训练、调整和生成。该流程始于基础模型,这是一种深度学习模型,可作为多种不同类型生成式人工智能应用的基础。基础模型可以针对特定任务进行定制,例如文本或图像生成,并且通常基于海量数据进行训练。深度学习算法处理海量非结构化数据(TB级或PB级的文本、图像或视频),并使用基础模型根据提示自主生成内容。这一训练过程计算密集、耗时且成本高昂,需要数千个GPU和数周的处理时间,总计数百万美元。像Meta的Llama-2这样的开源基础模型项目使开发人员能够绕过这一步骤及其成本。为了针对特定的内容生成任务对模型进行微调,开发者可以使用诸如标记数据微调或人工反馈强化学习 (RLHF) 等技术。这需要向模型输入特定于应用的问题或提示以及正确答案。开发者定期评估其生成式 AI 应用的输出,进一步调整模型以提高准确性或相关性。另一种方法是检索增强生成 (RAG),它通过整合训练数据以外的相关来源来扩展基础模型,从而优化参数以提高准确性或相关性。生成式 AI 为各行各业和应用带来了诸多优势,包括重复性任务的自动化、更快地从数据中获取洞察、增强决策能力、减少人为错误、全天候可用以及降低物理风险。AI 可以自动化日常任务,使人类能够专注于创造性工作。它能够做出更快、更准确的预测和可靠的决策,使其成为决策支持或全自动决策的理想选择。AI 通过引导人们完成流程、标记潜在错误以及在无人干预的情况下自动执行任务来减少人为错误,尤其是在医疗保健等精准度至关重要的行业。随着机器学习算法接触更多数据并从经验中学习,其准确性不断提高,错误也随之减少。人工智能始终在线,全天候提供一致的结果。人工智能可以通过使用聊天机器人或虚拟助手来简化客户服务或支持的人员需求。它还可以简化生产流程,保持一致的产出水平,并自动执行那些可能危及人类工人的危险任务。例如,自动驾驶汽车可以降低乘客受伤风险。人工智能的实际应用包括通过聊天机器人改善客户服务、检测欺诈交易、个性化客户体验以及简化招聘流程。此外,人工智能代码生成工具可以加速应用程序开发,而预测性维护模型可以防止设备故障和停机。人工智能的快速应用带来了诸多好处,但也带来了挑战和风险。人工智能系统依赖的数据集可能容易受到篡改、偏见或网络攻击,从而损害其完整性和安全性。为了降低这些风险,组织必须在从开发到部署的整个人工智能生命周期中保护数据完整性。威胁行为者会针对人工智能模型进行盗窃、逆向工程或未经授权的操作,这可能会损害模型的架构、权重或参数。此外,还存在诸如模型漂移、偏差和治理结构崩溃等运营风险。如果不加以解决,这些风险可能会导致系统故障和网络安全漏洞,而威胁行为者可能会利用这些漏洞。为了优先考虑安全和道德,组织必须开发透明、可解释、公平的人工智能系统,包容、稳健、安全且可问责。人工智能伦理是一个多学科领域,旨在优化人工智能的有益影响,同时降低风险。人工智能伦理的原则包括可解释性、公平性和透明性。可解释的人工智能使人类用户能够解读算法产生的结果和输出。公平性和包容性要求在数据收集和模型设计过程中最大限度地减少算法偏差。建立多元化的团队对于创建包容性的人工智能系统至关重要。稳健的人工智能能够处理异常情况而不会造成损害,能够抵御有意和无意的干扰,并防止漏洞。问责制要求对人工智能的开发、部署和结果建立明确的责任和治理结构。与人工智能伦理相关的共同价值观包括可解释性、公平性、包容性、稳健性、安全性、问责制、透明性和责任感。用户必须了解人工智能的开发方式、功能、优势和劣势。提高透明度可以为人工智能模型和服务的创建提供宝贵的见解。确保隐私和合规性至关重要,因为像《通用数据保护条例》(GDPR)这样的监管框架要求组织保护个人信息。这包括保护可能包含敏感数据的人工智能模型,并开发能够适应不断变化的法规的适应性系统。研究人员根据人工智能的复杂程度对其进行了分类:弱人工智能(狭义人工智能)执行特定任务,而强人工智能(通用人工智能,AGI)则具有理解、学习和应用知识处理各种任务的能力,超越人类智能。具有自我意识的人工智能系统的概念仍是一个有争议的话题。人工智能发展的关键里程碑包括:- 1950 年:艾伦·图灵出版了《计算机器与智能》,提出了“机器能思考吗?”的问题,并提出了图灵测试。- 1956 年:约翰·麦卡锡在达特茅斯学院的第一次人工智能会议上提出了“人工智能”一词。- 1967 年:弗兰克·罗森布拉特制造了 Mark 1 感知器,这是一台基于通过反复试验进行学习的神经网络的计算机。- 1980 年:使用反向传播算法的神经网络在人工智能开发中得到广泛应用。 1995年,斯图尔特·罗素和彼得·诺维格出版了《人工智能:一种现代方法》,这是一本关于人工智能的权威教科书,探讨了人工智能的四个潜在目标或定义。大约在同一时期,IBM的“深蓝”国际象棋系统在一场对决中击败了世界冠军加里·卡斯帕罗夫。大数据和云计算时代到来,使企业能够管理用于训练人工智能模型的大型数据资产。21世纪初,人工智能取得了重大进展,包括约翰·麦卡锡在其2004年的论文《什么是人工智能?》中对人工智能的定义。数据科学开始成为一门热门学科,IBM Watson击败了《危险边缘!》冠军肯·詹宁斯和布拉德·鲁特。2015年,百度的 Minwa 超级计算机使用卷积神经网络识别图像的准确率高于人类。同年,在 DeepMind 的 AlphaGo 程序击败世界围棋冠军李索孛后,谷歌以 4 亿美元收购了 DeepMind。2020 年代,大型语言模型 (LLM) 兴起,例如 OpenAI 的 ChatGPT,它们显著提高了人工智能性能和推动企业价值的潜力。生成式人工智能实践使深度学习模型能够在大型数据集上进行预训练。截至 2024 年,人工智能趋势表明它将持续复兴,多模态模型通过结合计算机视觉和 NLP 功能提供更丰富的体验。IBM 强大的人工智能战略:推进值得信赖的人工智能以获得竞争优势一种利用人工智能力量的全面方法,包括创造竞争优势、在整个业务中扩展人工智能以及推进值得信赖的人工智能。