事件中心捕获是将事件中心中的流式数据自动传送到 Azure Blob 存储或 Azure Data Lake 存储的最简单方法。随后,您可以处理数据并将其传送到您选择的任何其他存储目标,例如 SQL 数据仓库或 Cosmos DB。
一家医院发现其人工智能软件对患者进行了误诊——在测试结果上,它将患者评定为健康,而实际上他们并不健康。一些患者因这种假阴性结果而遭受严重后果。在另一个例子中,一家公司用于招聘面试候选人的人工智能软件被发现系统性地歧视某些个人资料。该公司后来因此被起诉。另一个例子是面部识别人工智能软件拒绝让具有特定种族背景的人使用它,因为它无法将该人归类为合法用户。
摘要 算法系统和人工智能在新闻制作中的日益普及引发了人们对记者是否有能力以不违背新闻规范和价值观的方式理解和使用它们的能力的担忧。这种“可理解性”问题对于公共服务媒体来说尤其严重,因为这种复杂而不透明的系统可能会扰乱问责制、决策和专业判断。本文通过文件分析和对 14 名记者的访谈,概述了人工智能在 BBC 新闻制作中的部署,并分析了记者如何理解人工智能和算法。我们发现日益普及的人工智能与 BBC 记者的理解水平之间存在脱节,他们用猜测和想象来代替对这些技术的准确概念。这可能会限制记者有效和负责任地使用人工智能系统的能力,质疑其产出和在新闻制作中的作用,或者适应和塑造它们,也可能妨碍对人工智能如何影响社会进行负责任的报道。我们建议 PSM 在个人、组织和社区三个层面制定促进人工智能可理解性和素养的策略,并且我们从社会文化角度而不是单纯的技术角度重新定义人工智能可理解性问题,以便更好地解决规范性考虑。
气候变化对人类的可持续性构成了前所未有的风险。这一巨大挑战威胁着民用基础设施、农业、公共卫生、经济安全和国际和平,而世界上最缺乏服务的社区则面临着最大的负担。建造海堤等全球适应措施预计每年将花费 2800 亿至 5000 亿美元;及早适应将最大限度地提高效率、弹性和成本效益。科学的不确定性对公共和私人气候适应决策构成了两个关键挑战:1. 气候强迫因素(人口和经济增长、技术发展、土地使用)无法准确预测,导致情景不确定性。这些不确定性主导着未来约 40 年后的气候估计。2. 预测未来气候的气候模型过于不精确。例如,到 2055 年,对于中等排放路径,全球气温可能上升 0.9°C 至 2.0°C,全球平均海平面可能上升 0.19 米至 0.33 米。区域预测甚至更不准确。模型不确定性存在于所有时间尺度,但在短期(10 至 40 年)内占主导地位,因此阻碍了当今关于适应、投资、安全和弹性的决策。
● 模块 3:实施团队 - 实施团队通过整合实施阶段、驱动因素和改进周期的使用,支持可用创新的实施、可持续性和扩大规模。本模块旨在帮助新老实施团队积极建设能力并扩大计划和创新。 ● 建立实施团队 - 建立实施团队和确定团队成员并不一定意味着雇用新的专业人员,甚至不一定意味着增加一个“新”团队。首先要评估现有的团队和人员。是否应该为这项工作“重新调整”或重新设计现有团队?在重新调整目标的过程中,是否会将人员添加到现有团队中?还有哪些其他因素需要考虑? ● 实施团队:职权范围 (ToR) - 当实施团队和其他利益相关者从一开始就明确其目的、成员、流程和工作方式时,他们就能够更好地避免误解并从事更有针对性的工作。 ● Fixsen, DL、Naoom, SF、Blase, KA、Friedman, RM 和 Wallace, F. (2005)。实施研究:文献综述。国家实施研究网络。
当算法和人类都无法在给定上下文中的所有实例中发挥主导作用时,人机互补性就很重要。最近探索人机协作的研究考虑了与分类任务相对应的决策。然而,在许多人类可以从人工智能互补性中受益的重要情况下,人类会采取行动。在本文中,我们提出了一种新颖的人机协作框架,用于选择有利的行动方案,我们将其称为人机团队的学习互补政策 (LCP - HAI)。我们的解决方案旨在利用人机互补性来最大化决策奖励,通过学习旨在补充人类的算法策略,通过使用路由模型将决策推迟给人类或人工智能以利用由此产生的互补性。然后,我们扩展了我们的方法来利用机会并降低实践中重要情况下出现的风险:1)当一个团队由多个具有差异和潜在互补能力的人组成时,2)当观察数据包括一致的确定性动作时,3)当未来决策的协变量分布与历史数据不同时。我们使用真实人类反应和半合成数据证明了我们提出的方法的有效性,并发现我们的方法在各种设置下都提供了可靠且有利的性能,并且优于算法或人工智能自己做出决策时。我们还发现,我们提出的扩展有效地提高了人机协作性能在不同挑战性设置下的稳健性。
人工智能科学方面的许多经典著作(主要是 Simon、Langley 及其合作者 3,但最近也有 Schmidt & Lipson、4 Udrescu & Tegmark 5 等人的作品)都集中在简单问题上。对于 Simon 和 Langley 来说,这种方法以心理学论点为前提,即科学认知本质上与常规问题解决相同,只是应用于一组不同的(有时更具挑战性的)问题。因此,他们开发了模拟人类解决问题的算法,并将其应用于科学发现。Chalmers、French 和 Hofstadter 6 批评了这种方法,因为它赋予算法一种问题的表示,而这种表示已经具有最终理论所需的基本原语。换句话说,它回避了表示问题:原语从何而来,我们如何知道我们是否拥有正确的原语?西蒙(与波普尔相反)坚持认为科学发现存在逻辑,但他的逻辑实际上是一种科学问题解决(即优化)的逻辑,而不是问题创造意义上的发现。后者涉及表征学习,但也涉及更深层次的东西,正如我在下面所论证的那样。
这些材料是初步的、非详尽的,仅供参考,以非排他性方式提供,以响应在 K-12 教育中实施人工智能的考虑需求。这些材料反映了一般见解,并可能根据当前可用的信息提出潜在的考虑选项,这些信息本质上是不确定的,可能会发生变化,但不包含确定未来行动方针所需的所有信息。这些材料中包含的见解和概念尚未经过验证或独立核实。对特定产品或组织的引用仅供说明,并不构成任何认可或推荐。这些材料不构成,也不应被解释为政策、会计、法律、医疗、税务或其他受监管的建议,或对任何特定行动方针的建议。这些材料不是结果的保证,不能依赖。未来结果可能与任何预期、预测或预测的陈述存在重大差异。鉴于技术发展日新月异,这些材料“按原样”提供,不作任何陈述或保证,并且明确声明对任何损失或损害不承担任何责任。接收方对其所有决定、使用这些材料以及遵守适用法律、法规和规定负全部责任。在采取任何具体步骤之前,请考虑寻求法律和其他相关认证/许可专家的建议。
