详细内容或原文请订阅后点击阅览
建立AI的信任是新的基线
AI正在迅速扩展,就像任何技术迅速成熟一样,它需要明确的,有意的,不仅要限制,而且要保护和授权。这尤其如此,因为AI几乎嵌入了我们个人和职业生活的各个方面。作为AI的领导者,我们站在一个关键的[…]邮政建筑物信托AI是新的基线,首先出现在Unite.ai上。
来源:Unite.AIAI正在迅速扩展,就像任何技术迅速成熟一样,它需要明确的,有意的,不仅要限制,而且要保护和授权。这尤其如此,因为AI几乎嵌入了我们个人和职业生活的各个方面。
作为AI的领导者,我们站在一个关键时刻。一方面,我们拥有比以前更快学习和适应的模型。另一方面,确保它们以安全,正直和深厚的人类结盟而运作的责任不断增加。这不是奢侈品,而是真正值得信赖的AI的基础。
今天最重要的是
过去几年在语言模型,多模式推理和代理AI方面取得了显着进步。但是,随着每一步,赌注都会变得更高。 AI正在塑造业务决策,我们已经看到,即使是最小的失误也有很大的后果。
例如,在法庭上以AI为例。我们都听说过律师依靠AI生成的论点的故事,只是为了找到制造案件的模型,有时会导致纪律处分,或者更糟的是失去许可证。实际上,已显示法律模型在每六个基准查询中至少有一个幻觉。更令人担忧的是涉及角色的悲剧案件,ai之类的案例,此后更新了其安全功能,其中聊天机器人与青少年自杀有关。这些例子突出了未经检查的AI的现实风险以及我们作为技术领导者所承担的关键责任,不仅是为了建立更智能的工具,而且要负责任地建立人类的核心。
每六个 安全功能安全,对齐的AI
护栏并不是什么新鲜事物。在传统软件中,我们始终拥有验证规则,基于角色的访问和合规性检查。但是AI引入了新的不可预测性:新兴行为,意外的输出和不透明的推理。
现代AI安全现在是多维的。一些核心概念包括:
行为对准 麦肯锡