确保基于人工智能的安全系统
机构名称:
¥ 1.0

随着基于人工智能 (AI) 进步的系统和服务的创新,人们报告了其在广泛领域日益广泛使用所带来的脆弱性。在这些脆弱性中,嵌入式偏见或算法歧视已得到广泛认可,例如用于招聘决策、犯罪风险评估、医疗资源分配等的算法工具中的种族和性别偏见。为了解决嵌入式偏见问题,已提出了一些步骤,例如识别所使用的算法、了解解决方案的目标(例如考虑最终用户和/或数据中主体的多样性和代表性)、评估实现该目标的绩效(例如针对特定目标群体或有问题使用的情况进行测试)、根据绩效评估进行再培训以及引入监督机构。

确保基于人工智能的安全系统

确保基于人工智能的安全系统PDF文件第1页

确保基于人工智能的安全系统PDF文件第2页

确保基于人工智能的安全系统PDF文件第3页

确保基于人工智能的安全系统PDF文件第4页

确保基于人工智能的安全系统PDF文件第5页

相关文件推荐

人工智能
2020 年
¥3.0
安全系统
2020 年
¥1.0
人工智能
2022 年
¥3.0
人工智能
2024 年
¥1.0
人工智能
2024 年
¥3.0
人工智能
2024 年
¥1.0
类比与人工智能
2020 年
¥1.0
人工智能
2020 年
¥1.0
人工智能
2020 年
¥1.0
人工智能
2023 年
¥3.0
人工智能
2024 年
¥4.0
人工智能(AI)
2023 年
¥1.0
人工智能
2013 年
¥3.0
人工智能
2024 年
¥1.0
人工智能
2023 年
¥5.0
人工智能(AI)
2023 年
¥2.0
人工智能
2020 年
¥9.0
人工智能 v0.2
2024 年
¥4.0
人工智能
2022 年
¥3.0
人工智能
2021 年
¥6.0
人工智能
2023 年
¥1.0
云原生人工智能
2024 年
¥3.0
人工智能
2024 年
¥1.0
人工智能
2021 年
¥1.0
人工智能
2023 年
¥1.0