Loading...
机构名称:
¥ 1.0

抽象的人工智能,特别是机器学习和深度学习模型通常被认为是快速和高性能的,但总的来说,缺乏透明度和可解释性。在人工智能的整个广泛情况下,与解释性及其后果相关的问题变得越来越重要。要解决此问题,可以解释的AI,作为一组人工智能技术,能够使自己的决定更加透明和解释,以便用户理解该系统提供其结果,决策或在推荐系统的情况下的具体原因。在异质领域和环境中非常需要解释的人工智能,因为基于人工智能的系统的透明度,可解释性甚至是帐户能力的需求是最必要的,正如欧洲联盟2018年通用数据保护法规中最近的解释权所证实的那样。由于推荐系统在日常生活和业务领域的许多应用领域和情况中的扩散,因此系统不仅可以为人类决策者提供建议并简化组织中的决策过程,而且还可以提供正确的建议动机。本文总结了针对推荐系统的可解释人工智能的艺术状态研究的结果。我们将遵循文献中的主要评论,以介绍主要的工作,可解释的建议和方法。

对推荐系统的解释性的简短审查

对推荐系统的解释性的简短审查PDF文件第1页

对推荐系统的解释性的简短审查PDF文件第2页

对推荐系统的解释性的简短审查PDF文件第3页

对推荐系统的解释性的简短审查PDF文件第4页

对推荐系统的解释性的简短审查PDF文件第5页

相关文件推荐

2025 年
¥1.0
2024 年
¥1.0
2023 年
¥3.0
2023 年
¥3.0
2024 年
¥3.0
2025 年
¥10.0
2024 年
¥4.0
2025 年
¥1.0