近期,生成式人工智能取得了重大进展。生成式人工智能是一种人工智能模型,利用神经网络识别现有数据中的模式和结构,从而生成新的原创内容。这些模型有可能彻底改变包括金融服务在内的许多现有业务领域。然而,对于受监管实体而言,重要的是确保此类模型的任何使用均符合监管机构的期望以及有关使用人工智能和机器学习的现有规则。
鉴于 ChatGPT 等人工智能系统可以生成与人类作品难以区分的内容,负责任地使用这项技术日益受到关注。尽管了解使用人工智能系统的好处和危害需要更多时间,但它们在实践中被迅速且不加区分地采用却是现实。目前,我们缺乏一个通用的框架和语言来定义和报告负责任地使用人工智能生成内容。先前的工作提出了在特定场景(例如机器人或医学)中使用人工智能的指导方针,但这些指导方针无法转移到开展和报告科学研究中。我们的工作有两点贡献:首先,我们提出了一个由透明度、完整性和问责制组成的三维模型来定义负责任地使用人工智能。其次,我们引入了“人工智能使用卡”,这是一种报告人工智能在科学研究中使用的标准化方法。我们的模型和卡片允许用户反思负责任地使用人工智能的关键原则。它们还帮助研究界追踪、比较和质疑各种形式的人工智能使用,并支持制定公认的社区规范。拟议的框架和报告系统旨在促进在科学研究中合乎道德和负责任地使用人工智能,并为报告不同研究领域的人工智能使用情况提供标准化方法。我们还提供免费服务,通过问卷轻松生成用于科学工作的人工智能使用卡,并以各种机器可读的格式导出,以纳入 https://ai-cards.org 上的不同工作产品中。
鉴于 ChatGPT 等人工智能系统可以生成与人类作品难以区分的内容,负责任地使用这项技术日益受到关注。尽管了解使用人工智能系统的好处和危害需要更多时间,但它们在实践中被迅速且不加区分地采用却是现实。目前,我们缺乏一个通用的框架和语言来定义和报告负责任地使用人工智能生成内容。先前的工作提出了在特定场景(例如机器人或医学)中使用人工智能的指导方针,但这些指导方针无法转移到开展和报告科学研究中。我们的工作有两点贡献:首先,我们提出了一个由透明度、完整性和问责制组成的三维模型来定义负责任地使用人工智能。其次,我们引入了“人工智能使用卡”,这是一种报告人工智能在科学研究中使用的标准化方法。我们的模型和卡片允许用户反思负责任地使用人工智能的关键原则。它们还帮助研究界追踪、比较和质疑各种形式的人工智能使用,并支持制定公认的社区规范。拟议的框架和报告系统旨在促进在科学研究中合乎道德和负责任地使用人工智能,并为报告不同研究领域的人工智能使用情况提供标准化方法。我们还提供免费服务,通过问卷轻松生成用于科学工作的人工智能使用卡,并以各种机器可读的格式导出,以纳入 https://ai-cards.org 上的不同工作产品中。
人工智能 (AI) 预计将对临床医学、生物医学研究、公共和全球健康以及医疗保健管理产生变革性影响 1、2。医疗保健领域对 AI 应用的热情在美国尤为明显,截至 2021 年 9 月,美国食品药品监督管理局 (FDA) 批准使用 343 种支持人工智能/机器学习的医疗设备,其中绝大多数用于放射科 3。人们对人工智能 (AI) 在医疗保健领域的应用有着浓厚的兴趣,推动了政策、监管和专业组织制定 AI 原则,其中包括 FDA 3、加拿大卫生部 3、世界卫生组织 (WHO) 4 和美国医学信息学协会 (AMIA) 5(表 1)。这些提议的 AI 原则之间存在相当大的协同作用,表明全球对什么是负责任的医疗保健 AI 的共识正在不断发展。我们建议扩大已发布的指导 AI 原则。首先,这些原则并没有明确要求人工智能工具专门用于解决医疗保健领域根深蒂固且经常被忽视的挑战,而我们认为这一要求至关重要。如果不明确关注这些问题,人工智能将不会改善医疗保健,而将导致更多工具的出现,从而加剧先前存在的系统性挑战。其次,已发布的原则通常是为广泛的多利益相关者受众编写的,而不是明确针对最终负责模型开发的人工智能开发人员。鉴于分配给人工智能开发的时间和资源有限,并且人工智能开发团队通常无法获得专业的多利益相关者专业知识,必须为人工智能开发人员提供一种清晰、彻底和系统的方法,将提议的原则整合到人工智能开发中。FUTURE-AI 医疗人工智能算法检查表 6 是一个检查表框架的示例,它将高级人工智能原则转化为实用的计算指导。拟议的 TRIPOD-AI 和 PROBAST-AI 清单将为如何报告和批判性评估为诊断或预后而开发的 AI 模型提供指导 7 。如果没有这样的辅助清单,AI 开发团队将越来越难以在计算机科学和 AI 涉及的其他各个领域(如临床医学、生物医学、伦理和法律)中采取行动。这一观点提出了我们认为在开发医疗保健 AI 工具时必须解决的八项原则(表 2 )。我们关注计算科学家作为主要受众,并强调 AI 必须专门设计用于改善长期、系统性
人类历史上首次有可能创建能够执行复杂任务的自主系统,而此前这些任务被认为是自然智能的唯一领域。即处理大量信息、进行计算和预测、学习和适应不断变化的情况以及识别和分类物体。由于这些任务的非物质性质,以及它们与人类智能的相似性,我们将这些广泛的系统统称为人工智能。人工智能是科学技术进步的一部分,可以通过改善生活条件和健康、促进公正、创造财富、增强公共安全以及减少人类活动对环境和气候的影响来产生巨大的社会效益。智能机器不仅仅能比人类更好地进行计算。此外,我们能够与生物互动、交流并关心生物。
美国的国家和经济安全取决于国家关键基础设施的可靠运行。定位、导航和授时 (PNT) 服务广泛部署于整个基础设施中。为了减轻 PNT 中断或操纵的潜在影响,政府于 2020 年 2 月 12 日发布了行政命令 (EO) 13905,即“通过负责任地使用定位、导航和授时服务增强国家复原力”。美国国家标准与技术研究所 (NIST) 作为商务部 (DoC) 的一部分,根据行政命令中详述的 Sec.4 实施 (a) 制定了此自愿 PNT 配置文件。PNT 配置文件是使用 NIST 网络安全框架创建的,可用作风险管理计划的一部分,以帮助组织管理使用 PNT 服务的系统、网络和资产的风险。PNT 配置文件旨在广泛适用,并可作为制定特定行业指导的基础。该 PNT 配置文件为 PNT 用户提供了一个灵活的框架,以管理在形成和使用 PNT 信号和数据时的风险,这些信号和数据容易受到自然、人为、有意或无意的干扰和操纵。
2022 年 11 月 3 日 致:战略政策、恐怖主义融资和金融犯罪办公室助理主任乔恩·菲什曼 通过 www.regulations.gov 以电子方式提交。 事由:确保负责任地开发数字资产;征求意见(87 FR 57556) 尊敬的菲什曼助理主任, 这封信回应了美国财政部(“财政部”)就如何确保在美国负责任地开发数字资产的通知(“通知”)征求意见的请求。 1 财政部深化了对数字资产和相关技术滥用或不当开发所带来的非法融资和国家安全风险的分析,帮助协调美国涉及数字资产的监管和执法政策,并邀请公众就其迄今为止的行动征求意见,包括发布 2022 年行动计划以指导后续步骤,值得称赞。 2 FACT 联盟强烈支持财政部计划重点打击与数字资产技术相关的非法融资和国家安全风险 3 ,这些技术促进了匿名或难以追踪的数字交易。 4 数字资产支持者经常称赞区块链的公共性质,认为它可以最大限度地减少欺诈、提高效率、降低成本并确保公平交易,但事实表明,太多的区块链运营商和用户致力于开发和利用隐藏其身份和数字交易的数字资产技术。如果数字资产要 p
摘要:关于如何规范和负责任地使用数字技术,特别是人工智能 (AI) 的争论日益激烈。在日益全球化的背景下,需要解决不同国家和地区之间的权力关系和不平等问题。虽然发达国家正在带头建立人工智能的道德治理架构,但在所谓的全球南方(例如,具有后殖民历史的国家,也称为非发展中国家),它们的脆弱性和对北方统治的依赖导致它们从这些发达国家进口数字技术、资本和组织模式。这种不平衡在缺乏道德反思的情况下,会对他们已经被排斥、压迫和歧视的人口产生重大的负面影响。在本文中,我们想探讨如果我们不从人权/民主的角度考虑人工智能的多层次和道德全球治理的必要性,那么从发达国家进口数字技术的全球南方国家会在多大程度上受到影响。具体来说,我们要解决可能出现的两个问题:(a)南方人口缺乏治理能力,因为他们在技术创新和监管上依赖北方领导层;(b)北方国家对南方国家施加的物质和劳动力掠夺主义。