详细内容或原文请订阅后点击阅览
在AI上打开黑匣子解释性
人工智能(AI)已经在我们日常生活的几乎所有方面都交织在一起,从个性化建议到批判性决策。鉴于AI将继续前进,因此,与AI相关的威胁也将变得更加复杂。随着企业对日益增长的复杂性进行了支持的防御,[…]在AI上打开黑匣子的帖子首先出现在Unite.ai上。
来源:Unite.AI人工智能(AI)已经在我们日常生活的几乎所有方面都交织在一起,从个性化建议到批判性决策。鉴于AI将继续前进,因此,与AI相关的威胁也将变得更加复杂。随着企业为响应日益增长的复杂性而制定支持AI的防御,促进整个安全文化的下一步是增强了AI的解释性。
AI将继续前进尽管这些系统提供了令人印象深刻的功能,但它们通常充当“黑匣子” - 产生结果,而没有明确了解该模型如何得出结论。 AI系统制作错误陈述或采取虚假行动的问题可能会导致重大问题和潜在的业务中断。当公司因AI而犯错误时,他们的客户和消费者需要解释,此后不久,解决方案。
黑匣子 AI系统制作错误的语句或采取虚假操作但是应该归咎于什么?通常,不良数据用于培训。例如,大多数公共Genai技术都接受了互联网上可用的数据的培训,这些数据通常没有验证和不准确。尽管AI可以产生快速的响应,但这些响应的准确性取决于训练的数据的质量。
Internet上可用的数据AI错误可能会在各种情况下发生,包括具有错误的命令和错误的安全性决定的脚本生成,或者由于AI系统的错误指控而避免了员工从事业务系统的工作。所有这些都有可能导致大量业务中断。 这只是确保透明度是对AI系统建立信任的关键的众多原因之一。