人工智能的可信度分类
机构名称:
¥ 7.0

近年来,大量研究和指导表明,提高人工智能 (AI) 系统的可信度是私营和公共部门的共同优先事项。1,2,3 然而,可信人工智能的含义以及实现它的潜在方法仍然存在争议。4,5,6 利益相关者往往缺乏共同的词汇或一组需要考虑的问题,而且很少有针对人工智能开发者和政策制定者的指导。现有的可信人工智能框架还倾向于关注一组相对狭窄的人工智能模型和直接与人互动的应用程序。7 自 2021 年以来,美国国家标准与技术研究所 (NIST) 一直在与不同的利益相关者合作,开发旨在促进可信人工智能的人工智能风险管理框架 (RMF)。在本文中,我们分析了可信人工智能的前景,并介绍了一种人工智能可信度分类法,旨在补充和支持 NIST AI RMF 的使用。

人工智能的可信度分类

人工智能的可信度分类PDF文件第1页

人工智能的可信度分类PDF文件第2页

人工智能的可信度分类PDF文件第3页

人工智能的可信度分类PDF文件第4页

人工智能的可信度分类PDF文件第5页

相关文件推荐

人工智能的可信度
2024 年
¥1.0
人工智能的可信度
2024 年
¥3.0
人工智能系统分类
2021 年
¥5.0
人工智能
2024 年
¥1.0
类比与人工智能
2020 年
¥1.0
人工智能
2020 年
¥1.0
人工智能
2020 年
¥1.0
人工智能
2023 年
¥3.0
人工智能
2024 年
¥4.0
人工智能(AI)
2023 年
¥1.0
人工智能
2013 年
¥3.0
人工智能
2024 年
¥1.0
人工智能
2023 年
¥5.0
人工智能(AI)
2023 年
¥2.0
人工智能
2020 年
¥9.0
人工智能 v0.2
2024 年
¥4.0
人工智能
2022 年
¥3.0
人工智能
2021 年
¥6.0
人工智能
2023 年
¥1.0
云原生人工智能
2024 年
¥3.0