摘要:由于人们对网络隐私的关注度日益增加,企业可能面临卷入各种侵犯隐私案件并产生法律因果关系的风险。如果企业意识到可能侵犯网络隐私的后果,他们可以更积极地防止未来的网络隐私侵权。因此,本研究试图预测美国司法案件中与网络隐私侵犯相关的各种侵犯行为导致判决类型的概率。由于法律判决结果受社会因素和技术发展的显著影响,本研究试图确定一个能够准确预测法律判决并具有可解释性的模型。为了实现研究目标,它通过应用机器学习的五种分类算法(LDA、NNET、CART、SVM 和随机森林)来比较预测性能。我们还通过应用网络文本分析研究了隐私侵犯因素与裁决之间的关系。结果表明,如果公司有意或无意地分发恶意软件或间谍软件以收集未经授权的数据,则很可能承担民事和刑事责任。它满足了从社会技术角度建立自动化法律系统以提高其准确性的定量和定性方法的需求。
图1.左图:DARPA 对可解释 AI 的概念化,改编自 [ 35 ]。右图:使用高级执行-选择-保留组织模型对 Weick 的感知属性 (1-7) 进行分类,改编自 [49]。执行包括感知和响应环境变化的属性;选择包括解释变化含义的属性;保留包括描述存储和使用先前经验的属性 [ 56 ]。我们的感知 AI 框架扩展了现有的可解释性和可解释性定义,以包括 Weick 的感知属性。
4.9关于AI道德的建议...。APPLICATION OF AI IN MEDIA PRACTICE ............................................. 16 5.1 Content Gathering ................................................................................................ 16 5.2 Content Production .............................................................................................. 17 5.3 Content Distribution ............................................................................................ 17 5.4 Audience Engagement & Measurement ................................................................................................................................. 17 6。AI的道德使用原则......................................................................................................................................................................................................................................................................................................................................................................................................................................................................... 6.4 Transparency and Explainability ....................................................................... 17 6.5 Fairness ................................................................................................................. 18 6.6 Diversity and Accessibility ................................................................................. 18 6.7 Intrusion to Privacy ............................................................................................. 18 6.8数据保护和治理...............................................................................................................................................................................................................................................................................................................................................
可解释性可解释性是指数据科学问题解决方法以人们可以理解的方式解释其结果和发现的能力。可解释性的具体要求因目标群体和背景而异。这些可能包括,例如,有义务披露所使用的算法和方法以及它们所基于的数据源和流程(“完整性”),提供清晰易懂的解释(“可解释性”),并继续改进可解释性(在数据保护法和其他准则允许的范围内)。总体而言,可解释性旨在确保数据科学问题解决方法公平、可信和可接受,并以符合社会利益的方式使用它们。
模型的可解释性一直是一个争论话题。一些研究指出,可解释性是不必要的,一些“白盒”模型,如回归模型或决策树,本质上是可解释的。本文对具有高度相关特征的多元回归模型进行分析,以说明模型在处理复杂数据时可解释性如何失效。在这种情况下,信任模型解释可能会有问题。Shapley 净效应技术有助于确定特征的边际贡献,可用于提高模型的可解释性并揭示有关预测的更多信息。该研究得出的结论是,在所有情况下,包括简单模型甚至更明显的情况,可解释性都是避免得出有偏见和错误结论的必要条件。
Principle IEEE-EAD JPAI UNESCO OECD AIA 2017 2021 2021 2022 2021 Accountability ++ ++ ++ ++ ++ Accuracy - - - - ++ Beneficence ++ - + ++ ++ Collaboration ++ - ++ - - Competitive Fairness - ++ + + + Data Protection ++ + ++ ++ ++ Education & Literacy ++ ++ ++ - - Explainability + - ++ ++ ++ Fairness + ++ ++ ++ ++ Human Oversight + + ++ - ++ Human-centricness ++ ++ + ++ ++ Innovation + ++ + ++ + No Harm + - ++ - ++ Non-discrimination + + ++ ++ ++ Privacy + ++ ++ + ++ Responsibility + - ++ ++ ++ Robustness + - - ++ ++ Safety ++ + ++ ++ ++ Security ++ ++ ++ ++ ++可持续性 + ++ ++ ++ ++透明度++ ++ ++ ++ ++ ++ ++ ++ + ++ ++ ++ ++表1。伦理AI指南的比较。行按字母顺序排序,而列则按发布年度按升序顺序“ ++”订购:该文档明确定义并为该原理提供建议; “+”:该文档要么没有清楚地定义它,要么为其提供建议; “ - ”:该文件根本不讨论这一原则。
摘要 尽管在可解释人工智能技术中注入领域知识是增强“黑箱”模型决策可解释性的可行方法,但仍存在一些未解决的挑战。其中一些挑战包括可解释性的量化、性能妥协和信息牺牲。在我们之前的工作中,我们证明了在网络入侵检测中注入领域知识可以提供更好的决策可解释性、更好的泛化以更好地处理未知攻击以及更快的决策或响应。在本文中,我们扩展了我们之前的工作,以量化引入泛化的信息牺牲水平,并量化应用于网络入侵检测问题的可解释人工智能技术的可解释水平。我们的实验结果表明,由于注入了领域知识,牺牲的信息水平可以忽略不计,并且使用最近提出的代理方法获得的可解释性分数比不使用领域知识的情况要好。
摘要 人工智能 (AI),尤其是其可解释性,在过去几年中获得了极大的关注。虽然我们通常不会在只关注结果的情况下质疑这些系统的决策过程,但当这些系统应用于决策直接影响人类生活的领域时,我们会密切关注。决策边界附近的噪声和不确定的观察结果会导致无法解释的预测,从而可能导致最终用户的不信任。这引起了人们对可以解释结果的 AI 方法的关注。贝叶斯网络是概率图模型,可用作管理不确定性的工具。贝叶斯网络的概率框架允许在模型、推理和证据中实现可解释性。这些方法的使用大多是临时的,不像更广泛的 AI 研究领域中的可解释性方法那样有条理。因此,我们引入了贝叶斯网络中可解释性的分类法。我们扩展了模型、推理或证据中现有的可解释性分类,以包括对决策的解释。通过简单的医学诊断场景说明了从可解释性方法中获得的解释。本文介绍的分类法不仅可以鼓励最终用户有效地传达获得的结果,还可以帮助他们理解某些预测是如何做出的,更重要的是,为什么做出某些预测。
除了可解释性(自去年以来,组织在这方面有所改进)之外,大多数其他维度要么保持不变,要么恶化。这令人担忧,因为从广义上讲,人工智能系统对结果的可解释性似乎有所改善,但在“展示”其工作方式(透明度)或“证明”其工作方式(可审计性)方面却没有相应的改善。如果组织通常可以在不展示或证明人工智能结果的情况下更好地解释人工智能结果,那么他们可能对可解释性过于乐观,或者更依赖解释而不是具体证据。独立非营利组织 Partnership on AI 发布的研究还发现,实践中的可解释性未能提高外部利益相关者(例如最终用户和客户)的透明度和问责制,因为它目前服务于内部利益相关者(例如工程师和开发人员)的利益。29
• 将机器学习模型的输出分解为其决策的底层驱动因素(称为可解释性)的难度是金融领域使用的基于人工智能的模型面临的最紧迫挑战。 • 解释和重现 GenAI 模型的决策机制的复杂性和难度使得降低使用过程中的风险变得具有挑战性。 • 通过可解释性,人工智能/机器学习系统可以证明它是如何解决问题的,而不是像一个神秘的黑匣子一样工作。 • 可解释性水平有限可能导致客户对人工智能辅助金融服务的信任度较低。
