可以解释的AI建立信任和问责制

企业已经陷入了AI的采用中,竞赛以在其操作中部署聊天机器人,内容生成器和决策支持工具。根据麦肯锡的说法,有78%的公司在至少一个业务职能中使用AI。实施的疯狂是可以理解的 - 每个人都认为潜在价值。但是在这次匆忙中,许多组织忽略了以下事实[…]帖子AI如何建立信任和问责制是在Unite.ai上首先出现的。

来源:Unite.AI

企业已经陷入了AI的采用中,竞赛以在其操作中部署聊天机器人,内容生成器和决策支持工具。根据麦肯锡的说法,有78%的公司在至少一个业务职能中使用AI。

根据麦肯锡的说法

实施的疯狂是可以理解的 - 每个人都认为潜在价值。但是,在这次匆忙中,许多组织忽略了这样一个事实,即所有基于神经网络的技术,包括当今使用的所有LLM和生成AI系统,以及在可预见的未来,都有一个很大的缺陷:它们是不可预测的,最终无法控制。

正如某些人所学到的,因此可能会出现真正的后果。在一位雪佛兰经销商处,该经销商已将聊天机器人部署到其网站上,客户说服了Chatgpt-Power的机器人以仅1美元的价格出售58,195美元的Chevy Tahoe。另一个客户提示同一聊天机器人为复杂的流体动力学方程式编写Python脚本,这很高兴。这些事件传播后,经销商迅速削弱了机器人。

客户说服了Chatgpt-Power Bot以$ 58,195 Chevy Tahoe出售他的价格

去年,加拿大航空在小额索赔法院中丧生,当时它辩称其聊天机器人给乘客提供了有关丧亲折扣的不准确信息,“是一个独立的法人实体,负责其自己的行为。”

加拿大航空在小额索赔法院丢失

这种不可预测性源于LLM的基本架构。它们是如此的大型和复杂,以至于不可能了解他们如何获得特定答案或预测产生的内容,直到产生输出。大多数组织都在不完全认识到这一可靠性问题的情况下应对此可靠性问题。

可靠AI实施的途径

利用AI的全部潜力而不必屈服于其不可预测性,这需要精致的技术方法和战略思维的融合。虽然当前的几种方法提供了部分解决方案,但每种方法都有很大的限制。

BE