实证研究对于更好地理解人工智能的危害和社会影响至关重要。16“人工智能安全”在某种程度上是既定的历史安全工程实践(如汽车安全或网络安全)的迭代。然而,目前人工智能评估实践的证据基础还不够完善。17虽然人工智能安全研究正在发展,但它只是“人工智能研究总体的沧海一粟[,]”,仅占全球该技术研究的 2%。18部分挑战在于,测量和预测人工智能影响的科学作为一个领域仍然很年轻。19另一个挑战是,目前人工智能潜在灾难性风险的证据大多是推测性的。20某些解决前沿模型风险的方法,例如“人工智能对齐”(确保系统输出与设计意图一致),被认为是直观合理的,并且已成为广泛研究的主题,但事实证明很难衡量和实证研究。21
PCODR专家审查委员会初步建议是加拿大潘纳德肿瘤学药物评论(PCODR)是由加拿大省和领土卫生部(除魁北克除外)建立的,以评估癌症药物治疗,并提出建议指导药物补偿决定。PCODR过程通过查看临床证据,成本效益和患者观点来评估癌症药物的一致性和清晰度。在考虑到合格的利益相关者的反馈意见后,Cadth专家审查委员会(PERC)将提供最终建议。必须根据Cadth网站上可用的Cadth Pan-Canadian肿瘤药物评论提供反馈。最终建议将在Cadth网站上发布,并将取代此初步建议。
随着人工智能的不断发展,其推动科学发现的能力无疑将不断扩大,从而开辟新的研究领域,并帮助解决人类面临的一些最紧迫的挑战。然而,成功利用人工智能促进科学进步可能具有挑战性。存在经济障碍,例如计算资源有限和资金匮乏。(即使对于大型机构而言,构建和利用人工智能模型的成本也高得令人望而却步。)7 此外,缺乏相关数据集,尤其是包容性且无偏见的数据集,可能会阻止研究人员在某些领域利用人工智能,而使用低质量数据集可能会导致在这些数据集上训练的人工智能模型出现不准确且可能具有歧视性的行为。跨学科研究人员的稀缺也会抑制人工智能在科学上的潜力。此外,还存在技术障碍,例如某些人工智能模型难以扩展以及它们分析某些大型数据集的能力有限。在目前的状态下,人工智能系统无法完全理解 DNA 或重力等基本概念。8
本报告编写框架内的项目得到了以下 CERRE 成员组织的支持和/或投入:ARERA、EDF、Ei、Enel、Norsk Hydro、Ofgem、PPC、Terna、UREGNI。但是,他们对本报告的内容不承担任何责任。本 CERRE 报告中表达的观点仅代表作者个人观点,不代表他们所属的任何机构。此外,它们不一定与 CERRE、任何赞助商或 CERRE 成员的观点相对应。推荐引用:Pollitt, M.、von der Fehr, N.、Banet, C.、Le Coq, C.、Willems, B.、Bennato, AR 和 Navia, D.,《面向未来的电力市场设计建议》,欧洲监管中心 (CERRE),2022 年。
对AI系统的兴起的一个重要问题是加剧偏见和算法歧视的潜力。最近的行政命令反映了确保联邦政府使用AI系统的重要性,这与更广泛的政策一致,以提高公平并防止非法歧视。,例如,行政命令(EO)13,985关于通过联邦政府明确提高种族平等和支持欠服务的社区的支持,要求联邦政府机构对联邦政策和计划对人口统计群体的差异影响进行评估; EO 14,091关于通过联邦政府进一步推进对服务不足的社区的进一步推进种族平等和支持,将与股权相关的联邦机构的要求扩展到AI和自动化系统;和EO 14,110在安全,安全和值得信赖的1
pCODR 专家审查委员会 (pERC) 最终建议 CADTH 泛加拿大肿瘤药物审查 (pCODR) 由加拿大各省和地区卫生部(魁北克省除外)设立,旨在评估癌症药物疗法并提出建议以指导药物报销决策。pCODR 流程通过查看临床证据、成本效益和患者观点为癌症药物的评估带来一致性和清晰度。pERC 最终建议在考虑了合格利益相关者的反馈后,pERC 成员认为已满足将初步建议及早转换为最终建议的标准,无需 pERC 重新考虑。此 pERC 最终建议取代了 pERC 初步建议。
目前,联邦执法机构发布的公共用例清单尚未履行其透明度和问责制。例如,司法部的2022披露由一页信息组成,列出了联邦调查局单一使用AI,以用于“威胁进气处理系统”以分析犯罪技巧。2,该单页没有关于联邦调查局使用面部识别技术的信息,尽管该局已经将这种AI驱动的技术用于刑事调查已有近十年了。3同样,其他多个司法部执法机构对面部识别的使用零披露 - 从DEA到ATF,再到美国元帅 - 即使最近的政府问责办公室(GAO)审计报告了这些机构中每个机构对这项技术的大量使用。4,尽管DOJ在2023年更新了其披露,但其他一些用例中仍然不包括这些子代理中任何一个的使用面部识别。5也没有与使用车牌读取器使用有关的任何披露。
过去几年,美国联邦政府对人工智能技术的采购急剧增加。1 基于对各机构在采购尖端人工智能方面面临的挑战的研究,NAIAC 2023 年秋季的建议重点关注各机构在现有采购权限内可以做些什么。即,NAIAC 建议各机构优先考虑人工智能采购,包括在其总统过渡计划中;解决人工智能专业知识差距并培训采购人员;利用新兴人工智能采购实践的非详尽清单——例如质量保证监测计划 (QASP) 和领域内评估;并确保创新人工智能采购方面的专业知识和最佳实践成为机构知识并在整个机构间共享。2 持续的研究和与利益相关者的接触揭示了联邦采购条例 (FAR) 在实践中的实施存在很大局限性。因此,这项建议侧重于机构采购一流、值得信赖的人工智能所必需的变革。