政府强烈反对 HR 6009,该法案要求土地管理局 (BLM) 撤回其提议的流体矿产租赁和租赁程序规则(或“陆上石油和天然气租赁”规则)。HR 6009 将不必要地干扰规则制定过程,并会阻止 BLM 代表美国人民负责任地管理其联邦石油和天然气计划。国会通过《通货膨胀削减法案》指示 BLM 采取行动,通过政策和法规更新来使其石油和天然气计划现代化。BLM 目前的石油和天然气法规上次更新是在 1988 年,仍然包含 70 多年前制定的财政条款,这些法规未能为美国人民提供联邦土地上石油和天然气生产的公平回报,并使美国纳税人面临着更高的风险,即在公司破产时不得不承担清理费用。 BLM 提出的规则将修改陆上联邦石油和天然气租赁计划的过时财政条款(包括担保要求、特许权使用费率和最低出价),这将增加回报并更好地保护公众。此外,BLM 致力于确保平衡的开发方式,既符合公众利益,又保护公共土地上的自然和文化资源。出于这些原因,政府强烈反对这项法案。
1. 引言太阳能技术并不是最近才发展起来的,它始于 19 世纪中期工业革命,当时开发了太阳能发电厂,利用热水产生蒸汽来驱动机器 [1]。彻底的可再生能源技术需要使用大片土地来发电。当然,对于光伏 (PV) 系统来说,由于太阳能的密度低,需要很大的表面积。太阳能是太阳通过热核过程产生的能量,该过程产生热量和电磁辐射。这些电磁辐射具有到达地球的能量。浮动光伏是指在水面安装光伏系统,例如湖泊、池塘、水库、水电大坝和其他经常运行不足的水面,光伏板通常安装在基于浮筒的浮动结构上。浮动光伏具有巨大的市场潜力。据估计,它将成为继地面光伏和屋顶光伏之后的第三大光伏发展领域。如今,光伏系统的使用在最近一段时间内迅速扩大,当今市场上有几种不同的太阳能开发方式,其中就包括浮动光伏 [2]。早期的研究揭示了浮动光伏系统如何提高光伏板的生产率,同时减少水分蒸发。与安装在陆地上的系统相比,浮动光伏能源系统具有许多优势。首先,
最近,生成式机器学习模型的输出质量得到了一定程度的提高,开辟了新的使用途径。这种质量的提高导致了商业生成平台的出现,用户可以在其中创建任意的文本和图像提示,以便快速生成大量图像。这些图像有时用作完成的创意结果,有时用作进一步手动编辑或设计构思的基础。从手动草图到图像编辑器和 3D 渲染,各种传统的可视化方法每天都在建筑设计中使用。建筑师很快就对生成方法产生了兴趣,正如 AEC 杂志 (2022) 的特别版所反映的那样。这项新技术在公众中得到了广泛讨论,从其具体用例到其开发方式的伦理以及它将带来哪些变化。在本文中,我们希望利用 Midjourney 平台的开放性以定量方式分析当前的建筑用例和功能。我们通过多种方法分析了 5800 万个查询,包括 word2vec 等 NLP 方法。我们考虑了这些模型背后的相关技术部分,并将研究它们如何使现在和将来的建筑师受益。图像生成模型的当前技术基础是所谓的扩散方法。Sohl-Dickstein 等人(2015 年)首次引入了正向扩散,它会逐步破坏图像中的结构化信息,而反向扩散则试图重新生成丢失的信息。然而,由于原始图像信息已被破坏,反向扩散至少部分起作用
• 隐私和安全问题十分令人担忧。请不要将任何客户数据(即使已匿名)输入 AI 写作程序。 • 当前开放模型的开发方式延续了现有的偏见、不准确性、过时的术语以及与缺乏公平、代表性和多样性相关的问题 • 众所周知,AI 写作模型会创建虚假参考并使用不适当的参考。 • 认证对我们行业的好处和目的是通过反思性写作来加强学习。它旨在为您提供一个提高和展示您的技能和实践的机会,也是一个获得建设性反馈的机会。使用 AI 会减少学习机会,并导致对客户护理的肤浅方法。董事会成员在识别 AI 生成的工作方面经验丰富。请注意,董事会可能会酌情要求您口头解释您的长期案例或其他任务。我们认识到这种技术在卫生领域可以发挥的重要作用,我们将密切监测 AI 的使用和影响,包括聊天机器人对遗传咨询培训和实践、道德和实际考虑以及护理质量的影响。我们将代表会员寻求专家建议,并提供有关该技术的好处和风险的最新信息。目前,人们非常担心在医疗保健中使用人工智能时的隐私、安全性和准确性,我们要求您不要将其用于认证或 CPD 任务,除非得到进一步建议。请将认证视为进一步学习和提高技能的机会,如果您使用人工智能为您思考,这种机会将被最小化。还请考虑我们职业的可信度和诚信度,以及遗传咨询师不使用人工智能获得资格的重要性。
人工智能 (AI) 技术可能会彻底改变医疗保健的组织和提供方式、药物和疫苗的开发方式、疾病的诊断方式以及发现新疫情的速度。使用人工智能进行的绝大多数生物和生命科学研究都可以以对社会风险最小甚至没有风险的方式进行。然而,预计在不久的将来会出现一些新的人工智能模型,这可能会增加因事故或滥用生物技术和生命科学而导致严重后果的风险。随着模型能力的提高,预计设计和操纵现有大流行病原体以及可能创造新病原体的能力将相应提高。研究人员还将能够将快速改进的人工智能模型与湿实验室的进步相结合,以促进、加速和增强这项工作。人工智能研究人员和政策制定者尚未就人工智能模型的哪些功能或用途最能增加公众的重大生物安全风险或哪些形式的风险最值得缓解达成广泛共识。在没有具体政府指导的情况下,一些大型语言模型 (LLM) 开发人员已经使用红队来评估其模型的生物安全风险,但其内容和方法各不相同。评估内容没有统一的框架,对于特定能力水平的关注程度也没有共同的理解。因此,迄今为止发表的有限的 AI 模型生物安全研究(仅评估了 LLM)测试了不同的风险,并使用了不同的假设来防范哪些威胁。这反过来又降低了缓解措施的潜在影响。由于无法评估 AI 模型是否会导致任何可能的与生物学相关的事故或不当行为,因此需要进行一定程度的优先排序。例如,仅仅询问一个模型是否会增加“生物武器计划”的风险是一个不充分的评估问题——它含糊不清、包容性不足,并且很难扩展到 LLM 之外。生物安全评估的最终目的应该是确定一个模型是否会显著增加对公众造成严重后果风险的可能性,无论人类的意图如何。解决方案
威尔康奈尔研究生院 - 三机构治疗学发现研究所 关于本课程 本课程是与罗氏公司的药物开发专家合作设计的,为开发新药的多学科过程提供了综合知识基础。它包括在发现、开发、制造、全球监管批准和新药商业化领域遇到的现实挑战。此外,还将考虑新兴技术对医疗保健和开发过程的影响。 虽然每个讲座可能是一门(或多门)研究生课程的主题,但这个综合课程的目标是介绍整个药物开发过程,提高人们对为患者带来新药所需考虑的所有不同方面的认识,并引起年轻研究人员的兴趣。 适合对象 生命科学研究生,他们是未来的研究人员、处方人员或开发过程的潜在参与者,他们将受益于这种对药物开发方式的全面了解。 教师 讲座将由具有药物开发专业知识和长期经验的专业人士讲授,他们中的大多数人在罗氏公司工作或曾在罗氏公司工作过。当前的讲师名单是草案,将根据罗氏高层管理人员对每个特定主题的建议和批准来确定结构 12 个讲座(每个 1.5 - 2 小时),包括真实案例研究目标规模:大约 40 名学生学生将分成 6 - 8 个小组,在课程开始时将为每个小组分配一个“研究问题”。预计在课程结束时,每个小组将展示他们的作业和拟议的解决方案(即 20 分钟展示和 10 分钟问答时间) 评估:期中和期末考试(多项选择题),以及对研究练习的评估 时间和地点 从 2020 年 1 月 7 日开始的每周四(下午 3 点至 5 点) 礼堂 A-250(2 楼),1300 York Ave,纽约,NY 10065,除非另有说明 第 1 节 - 1 月 7 日 发现和开发过程概述 讲师:Ignacio Rodriguez 医学博士,诺华制药免疫学、肝病学和皮肤病学患者安全主管
去年,也就是 2022 年,我们举办了两次 NSAT,第 10 届 NSAT 在第 33 届 ISTS 别府,第 11 届 NSAT 在土耳其伊斯坦布尔,我们从技术、应用、商业、法律等角度热烈讨论了微型/纳米/皮卫星的最新进展和未来。不幸的是,我担任总主席的第 33 届 ISTS 最终改为在线研讨会,所以我很高兴我们这次能在久留米面对面地参加 ISTS。正如你们所看到的,小型/微型/纳米/皮卫星现在不仅用于教育或技术演示,还已应用于各种实际任务,包括地球观测、空间科学和探索、通信等,从而成为太空业务的核心资产之一。我们目睹了太空开发和利用方式的两大变化:“从政府到私营部门”和“小型/微型/纳米卫星星座”。一些著名的初创公司如 SpaceX、Planet、Spire Global、Rocket Lab 成长非常迅速,它们基于小型/微型/纳米卫星星座做大生意,有时甚至从美国政府获得大笔“锚定租赁”合同。卫星星座可以提供更高的“时间分辨率”,即频繁提供服务,但它也提供了机会,不是一次性开发大量卫星群,而是分几批开发。这种开发方式将使我们能够根据前几批卫星的在轨结果频繁更新卫星设计。我相信如何实现这种效果不仅是初创公司考虑的关键,也是政府太空计划的关键考虑因素,卫星架构和开发风格将成为新的研究课题。纳米卫星研讨会始于 2010 年,一直致力于探讨微型/纳米/皮卫星的技术、应用、法律问题、教育方面等诸多主题。本次研讨会虽然名为“纳米卫星研讨会”,但其范围已不局限于纳米卫星(约10kg),还涵盖了微型和皮卫星,总重量从约1kg到100kg不等。我所领导的日本“Hodoyoshi计划”在2010年至2013年期间在日本举办了前五届纳米卫星研讨会,其中2013年11月在东京大学举行的第五届研讨会吸引了来自47个国家的约260名代表参加。从第 6 届研讨会开始,NSAT 加入了 ISTS,例如 2015 年神户第 30 届 ISTS 的第 6 届 NSAT、2017 年松山第 31 届 ISTS 的第 8 届 NSAT、2019 年福井第 32 届 ISTS 的第 9 届 NSAT。在国外,保加利亚瓦尔纳于 2016 年主办了第 7 届 NSAT,伊斯坦布尔于 2022 年主办了第 11 届 NSAT。正如我每次提到的那样,持续举办纳米卫星研讨会的重要目标之一是加强我们的微/纳米/皮卫星社区。通过 11 届研讨会,我们在这个领域建立了牢固的社区并建立了友谊,从此开始了一些实际的合作。请允许我借此机会宣布,UNISEC-GLOBAL 的下一次年会将于 2023 年 11 月在东京举行,UNISEC-GLOBAL 是一个国际微/纳米/皮卫星大学社区,也是 NSAT 的主办组织。我希望您也能计划参加这次会议。
摘要 思科是互联网技术领域的全球领导者。他们致力于制定一项雄心勃勃的企业环境可持续发展战略,名为“可能性计划”,旨在通过清洁能源、循环经济和弹性生态系统帮助构建再生未来。该论文概述了思科从线性消费模式向循环消费模式的转变,这对于实现到 2040 年实现整个价值链温室气体净零排放的目标至关重要。循环经济战略的核心是将循环性融入产品设计。在思科,这始于 25 项循环设计原则,分为 5 个重点领域:材料使用;标准化和模块化;包装和配件;智能能源消耗;拆卸、维修和再利用。自 2019 财年 (FY) 以来,思科一直将这些原则融入其产品中,目标是到 2025 财年将它们纳入 100% 的新产品和包装中。为了实现这一目标,思科开发并扩展了一个操作系统来开发流程和工具、协调业务战略并赋予员工权力。这导致思科产品开发方式发生了大规模转变,包括建立循环设计治理模型、跨职能参与结构和基于 Web 的合规性评估工具。截至 2023 财年,思科 27% 的新产品和包装符合循环设计原则。凭借强大的治理和跟踪系统,思科正在朝着其循环设计目标迈进,并建立了可以继续适应未来产品和包装设计需求的循环基础设施。简介和动机思科的循环经济方法思科是全球领先的互联网技术提供商。我们的产品和服务包括网络、协作解决方案、安全解决方案、无线和移动、数据中心、物联网 (IoT)、视频、分析和软件解决方案。我们相信,经营一家伟大的企业不应该与关心和为公司所在的社区做出贡献相冲突。因此,思科在 2023 年推出了下一代环境可持续发展战略“可能性计划”(思科,2023 年)1。该计划旨在通过过渡到清洁能源、转变为循环模式和培育弹性生态系统来帮助实现可再生未来。循环转型是我们计划中的关键优先事项之一,该计划侧重于如何发展为循环和再生经济。我们通过采取整体方法来设计、制造、交付、回收和再利用产品,以最大限度地减少废物流、优化材料使用并延长硬件产品的使用寿命。未来的机遇从线性消费模式转变为从产品制造、使用和丢弃的整个过程向循环模式转变是一个重大的范式转变。它挑战了长期以来对自然资源的真正价值和废物流的持久遗产的信念。它将环境视为利益相关者,而这一概念在当前的经济模式中基本上被忽略了。我们的目标是到 2040 年实现整个价值链的温室气体净零排放,因此向循环商业模式发展一直是实现这一目标的关键。正确实现循环性带来了巨大的机遇,而未能实现转型只会推迟不可避免的商业和环境挑战,因为 45% 的排放与商品生产和土地管理直接相关(艾伦·麦克阿瑟基金会,2019 年)2。对于思科来说,这种转变意味着带领一个主要依赖原始和不可再生材料和水的行业走向一个更少开采、更具弹性的未来。对于我们的供应链来说,这意味着重新思考我们的设计流程方法,
在当今快节奏的世界中,人工智能已成为一个广泛讨论的话题,它已从科幻小说中的概念转变为影响我们日常生活的现实。人们对人工智能及其将想象力融入日常生活的能力着迷。本文旨在探讨人工智能的概念、发展历程、各种类型的人工智能、训练模型、优势以及其多样化应用的案例。人工智能是指开发能够执行需要人类智能的任务的计算机系统。它通过机器学习、自然语言处理、计算机视觉和机器人技术等技术,帮助处理大量数据、识别模式并根据收集的信息做出决策。人工智能涵盖学习、推理、感知、解决问题、数据分析和语言理解等能力。人工智能的最终目标是创造出能够模拟人类能力并以更高的效率和精度执行各种任务的机器。人工智能领域有可能彻底改变我们日常生活的各个方面,例如虚拟个人助理、自动驾驶汽车、医疗诊断和治疗、推荐系统和欺诈检测。人工智能已融入众多行业和日常生活,展现出其多样化的应用。Siri、Google Assistant 和 Amazon Alexa 等虚拟个人助理利用人工智能进行自然语言处理和机器学习,从而提供更精准的响应。自动驾驶汽车使用人工智能算法分析传感数据,并进行实时驾驶决策。医疗保健专业人员利用 IBM Watson for Health 和 Google DeepMind 等平台,将人工智能算法应用于医疗诊断和治疗。Netflix、Amazon 和 Spotify 等在线平台利用人工智能根据用户行为和偏好提供个性化推荐。金融机构利用人工智能通过分析数据的算法实时检测欺诈活动。人工智能 (AI) 是一个复杂的决策过程,在某些领域超越了人类的能力。人工智能机器的一个关键特性是重复学习,这使它们能够从现实生活中的事件中学习并与人类互动。这种学习过程被称为机器学习,是人工智能的一个子领域。由于缺乏准确性和热情,人类难以完成重复性任务。相比之下,人工智能系统在其任务中表现出卓越的准确性。人工智能在医疗保健、零售、制造和银行等各个领域都有广泛的应用。人工智能主要分为两类:弱人工智能(Narrow AI)和强人工智能(General AI)。弱人工智能是指专为特定任务或特定范围的任务而设计的人工智能系统。这些系统在其指定领域表现出色,但缺乏广泛的认知能力。其特征包括专业化能力、应用范围有限以及缺乏意识。狭义人工智能的例子包括虚拟个人助理、推荐系统、图像识别软件、聊天机器人和自动驾驶汽车。而广义人工智能则旨在全面模拟人类智能,包括推理、解决问题、学习和适应新情况的能力。广义人工智能的特征包括类似人类的认知能力、适应性以及在各种任务和领域中概括知识的能力。目前,狭义人工智能是人工智能最常用的形式,广泛应用于各行各业。狭义人工智能的例子包括Siri和Alexa等虚拟个人助理、推荐系统、图像识别软件、聊天机器人和自动驾驶汽车。随着研究人员不断突破人工智能的界限,他们提出了不同级别的人工智能能力。广义人工智能就是这样一个概念,它被认为具有自我意识、意识和主观体验。然而,达到这一水平仍然是一个理论挑战。广义人工智能的发展仍是一个持续研究的领域。另一个极端是超级人工智能,也称为人工智能超级智能 (ASI)。这种类型的人工智能几乎在各个方面都超越了人类智能,并对社会和人类的未来产生重大影响。超级人工智能的特点包括认知优势、快速学习和适应能力,这些特点可以推动各个领域的快速发展。超级人工智能的发展也引发了人们对其潜在社会影响的担忧,包括与控制相关的风险、与人类价值观的契合度以及对人类生存的威胁。尽管目前还处于理论阶段,但研究人员正在积极探索其发展带来的影响和挑战。相比之下,反应式机器是最基本的人工智能类型,纯粹是反应式的。它们不会形成记忆,也不会利用过去的经验来做出决策。例如,IBM 的“深蓝”国际象棋超级计算机在 1997 年击败了国际象棋大师加里·卡斯帕罗夫。这些机器可以感知世界并采取行动,而无需存储任何记忆。而记忆有限的机器可以回顾过去,并根据观察结果做出决策。一个常见的例子是自动驾驶汽车,它会观察其他车辆的速度和方向,并相应地进行调整。这需要在特定时间内监控车辆的驾驶情况。这些信息不会存储在机器的经验库中。基于心智理论的机器可以理解人类的信念、情绪、期望等,并做出情绪化的反应。索菲亚就是这类人工智能的典型例子,尽管该领域的研究仍在进行中。换句话说,先进的机器正在被开发,它们对世界及其实体(包括人类和动物)有着更深入的理解。这些机器将能够回答简单的“假设”问题,并具备同理心,从而更好地理解他人的观点。更重要的飞跃是创造出具有自我意识的机器,它们能够意识到自身身份并预测他人的感受。这种智能水平将代表人工智能研究的重大突破。人工智能 (AI) 的工作原理是通过算法、计算能力和来自各种来源的数据来利用海量数据。该过程包括收集相关数据,对其进行预处理以确保其清洁度和结构化,根据任务需求选择合适的算法,使用标记或未标记数据训练模型,评估其性能,并将其部署到生产环境中执行实际任务。人工智能功能广泛而多样,涵盖各种随时间推移进行调整和改进的技术。这使得模型能够通过持续学习在动态环境中保持相关性和准确性。在线学习、迁移学习和强化学习等技术有助于从经验和反馈中获取新知识。在推理过程中,经过训练的人工智能模型会运用其学习到的模式和表征,对新数据进行预测或决策。此过程包括将输入数据输入模型,并根据模型的内部工作原理获得输出预测或分类。人工智能系统依靠数据、算法和计算能力从经验中学习、做出决策并自主执行任务。人工智能系统的具体功能取决于其架构、算法以及其设计目标任务的性质。人工智能的应用领域广泛,已被广泛应用于医疗保健、金融、零售、制造、交通运输、教育、市场营销、游戏、安全和自然语言处理等各个行业。这些应用包括诊断、患者预后预测、个性化治疗方案、信用评分、欺诈检测、客户服务、需求预测、供应链优化、智能游戏角色、面部识别、入侵检测、机器翻译、情绪分析等等。人工智能的未来很可能涉及机器学习、自然语言处理和计算机视觉的进一步发展,从而为各种应用和行业带来功能日益强大、集成度更高的系统。人工智能的潜在增长领域包括医疗保健、金融、交通、客户服务、刑事司法决策、招聘、教育以及其他涉及道德考虑的敏感领域。人工智能 (AI) 是一种使计算机和机器能够模拟人类学习、解决问题和决策等能力的技术。AI 应用程序和设备可以识别物体、理解人类语言、从新信息中学习,并向用户和专家提供建议。AI 研究的最新焦点是生成式 AI,它可以创建文本、图像和视频等原创内容。生成式 AI 依赖于机器学习 (ML) 和深度学习技术。深度学习彻底改变了机器学习领域,它使算法能够在无需人工干预的情况下从大量未标记数据集中进行预测。这项技术尤其适用于自然语言处理、计算机视觉以及其他需要在海量数据中识别复杂模式和关系的任务。因此,深度学习为我们日常生活中的大多数 AI 应用提供支持。深度学习还支持多种先进技术,包括半监督学习,它结合了监督学习和非监督学习,可以在标记数据和未标记数据上训练模型。此外,自监督学习从非结构化数据中生成隐式标签,而强化学习则通过反复试验和奖励函数进行学习。迁移学习允许将从一个任务或数据集获得的知识应用于另一个相关任务或不同的数据集。生成式人工智能是指能够根据用户的提示或请求创建复杂原始内容(例如文本、图像、视频或音频)的深度学习模型。这些模型对其训练数据的简化表示进行编码,然后从该表示中提取数据以生成与原始数据相似但不完全相同的新作品。生成式人工智能的最新进展促成了复杂的深度学习模型类型的发展,包括变分自编码器 (VAE)、扩散模型和变换器。变换器是许多备受瞩目的生成式人工智能工具的核心,例如 ChatGPT 和 GPT-4、Copilot、BERT、Bard 和 Midjourney。生成式人工智能的运作分为三个阶段:训练、调整和生成。该流程始于基础模型,这是一种深度学习模型,可作为多种不同类型生成式人工智能应用的基础。基础模型可以针对特定任务进行定制,例如文本或图像生成,并且通常基于海量数据进行训练。深度学习算法处理海量非结构化数据(TB级或PB级的文本、图像或视频),并使用基础模型根据提示自主生成内容。这一训练过程计算密集、耗时且成本高昂,需要数千个GPU和数周的处理时间,总计数百万美元。像Meta的Llama-2这样的开源基础模型项目使开发人员能够绕过这一步骤及其成本。为了针对特定的内容生成任务对模型进行微调,开发者可以使用诸如标记数据微调或人工反馈强化学习 (RLHF) 等技术。这需要向模型输入特定于应用的问题或提示以及正确答案。开发者定期评估其生成式 AI 应用的输出,进一步调整模型以提高准确性或相关性。另一种方法是检索增强生成 (RAG),它通过整合训练数据以外的相关来源来扩展基础模型,从而优化参数以提高准确性或相关性。生成式 AI 为各行各业和应用带来了诸多优势,包括重复性任务的自动化、更快地从数据中获取洞察、增强决策能力、减少人为错误、全天候可用以及降低物理风险。AI 可以自动化日常任务,使人类能够专注于创造性工作。它能够做出更快、更准确的预测和可靠的决策,使其成为决策支持或全自动决策的理想选择。AI 通过引导人们完成流程、标记潜在错误以及在无人干预的情况下自动执行任务来减少人为错误,尤其是在医疗保健等精准度至关重要的行业。随着机器学习算法接触更多数据并从经验中学习,其准确性不断提高,错误也随之减少。人工智能始终在线,全天候提供一致的结果。人工智能可以通过使用聊天机器人或虚拟助手来简化客户服务或支持的人员需求。它还可以简化生产流程,保持一致的产出水平,并自动执行那些可能危及人类工人的危险任务。例如,自动驾驶汽车可以降低乘客受伤风险。人工智能的实际应用包括通过聊天机器人改善客户服务、检测欺诈交易、个性化客户体验以及简化招聘流程。此外,人工智能代码生成工具可以加速应用程序开发,而预测性维护模型可以防止设备故障和停机。人工智能的快速应用带来了诸多好处,但也带来了挑战和风险。人工智能系统依赖的数据集可能容易受到篡改、偏见或网络攻击,从而损害其完整性和安全性。为了降低这些风险,组织必须在从开发到部署的整个人工智能生命周期中保护数据完整性。威胁行为者会针对人工智能模型进行盗窃、逆向工程或未经授权的操作,这可能会损害模型的架构、权重或参数。此外,还存在诸如模型漂移、偏差和治理结构崩溃等运营风险。如果不加以解决,这些风险可能会导致系统故障和网络安全漏洞,而威胁行为者可能会利用这些漏洞。为了优先考虑安全和道德,组织必须开发透明、可解释、公平的人工智能系统,包容、稳健、安全且可问责。人工智能伦理是一个多学科领域,旨在优化人工智能的有益影响,同时降低风险。人工智能伦理的原则包括可解释性、公平性和透明性。可解释的人工智能使人类用户能够解读算法产生的结果和输出。公平性和包容性要求在数据收集和模型设计过程中最大限度地减少算法偏差。建立多元化的团队对于创建包容性的人工智能系统至关重要。稳健的人工智能能够处理异常情况而不会造成损害,能够抵御有意和无意的干扰,并防止漏洞。问责制要求对人工智能的开发、部署和结果建立明确的责任和治理结构。与人工智能伦理相关的共同价值观包括可解释性、公平性、包容性、稳健性、安全性、问责制、透明性和责任感。用户必须了解人工智能的开发方式、功能、优势和劣势。提高透明度可以为人工智能模型和服务的创建提供宝贵的见解。确保隐私和合规性至关重要,因为像《通用数据保护条例》(GDPR)这样的监管框架要求组织保护个人信息。这包括保护可能包含敏感数据的人工智能模型,并开发能够适应不断变化的法规的适应性系统。研究人员根据人工智能的复杂程度对其进行了分类:弱人工智能(狭义人工智能)执行特定任务,而强人工智能(通用人工智能,AGI)则具有理解、学习和应用知识处理各种任务的能力,超越人类智能。具有自我意识的人工智能系统的概念仍是一个有争议的话题。人工智能发展的关键里程碑包括:- 1950 年:艾伦·图灵出版了《计算机器与智能》,提出了“机器能思考吗?”的问题,并提出了图灵测试。- 1956 年:约翰·麦卡锡在达特茅斯学院的第一次人工智能会议上提出了“人工智能”一词。- 1967 年:弗兰克·罗森布拉特制造了 Mark 1 感知器,这是一台基于通过反复试验进行学习的神经网络的计算机。- 1980 年:使用反向传播算法的神经网络在人工智能开发中得到广泛应用。 1995年,斯图尔特·罗素和彼得·诺维格出版了《人工智能:一种现代方法》,这是一本关于人工智能的权威教科书,探讨了人工智能的四个潜在目标或定义。大约在同一时期,IBM的“深蓝”国际象棋系统在一场对决中击败了世界冠军加里·卡斯帕罗夫。大数据和云计算时代到来,使企业能够管理用于训练人工智能模型的大型数据资产。21世纪初,人工智能取得了重大进展,包括约翰·麦卡锡在其2004年的论文《什么是人工智能?》中对人工智能的定义。数据科学开始成为一门热门学科,IBM Watson击败了《危险边缘!》冠军肯·詹宁斯和布拉德·鲁特。2015年,百度的 Minwa 超级计算机使用卷积神经网络识别图像的准确率高于人类。同年,在 DeepMind 的 AlphaGo 程序击败世界围棋冠军李索孛后,谷歌以 4 亿美元收购了 DeepMind。2020 年代,大型语言模型 (LLM) 兴起,例如 OpenAI 的 ChatGPT,它们显著提高了人工智能性能和推动企业价值的潜力。生成式人工智能实践使深度学习模型能够在大型数据集上进行预训练。截至 2024 年,人工智能趋势表明它将持续复兴,多模态模型通过结合计算机视觉和 NLP 功能提供更丰富的体验。IBM 强大的人工智能战略:推进值得信赖的人工智能以获得竞争优势一种利用人工智能力量的全面方法,包括创造竞争优势、在整个业务中扩展人工智能以及推进值得信赖的人工智能。