大多数人工智能素养计划都注定会失败

大多数人工智能素养项目强调工具和提示,而不是基于角色的判断和清晰度,导致使用不一致、风险增加和现实世界能力有限。这篇文章首先发表在电子学习行业。

来源:eLearning行业 | 在线教育博客

为什么大多数程序都关注错误的事情

人工智能素养已迅速成为组织的首要任务。预算正在分配。计划正在启动。员工被鼓励——有时是被要求——“学习人工智能”。从表面上看,这看起来像是进步。但如果你仔细观察,就会发现其中许多努力都是建立在错误的基础上的。他们专注于工具、提示和功能。他们忽视了有效使用所需的条件。因此,它们可能会产生活动,而不是能力。

问题不在于意识。这是应用程序

大多数人工智能素养计划都以相同的方法开始:

  • 介绍工具
  • 展示他们能做什么
  • 教授基本提示技巧
  • 鼓励实验
  • 这会创建初始参与度。人们变得更加舒适。使用量甚至可能会增加。但真正重要的工作变化很少。因为核心问题从来都不是意识。这是应用程序。员工并没有因为不知道人工智能的存在而陷入困境。他们之所以挣扎,是因为他们不知道:

  • 何时使用它。
  • 如何在自己的角色中恰当地使用它。
  • 在他们的上下文中“好”是什么样的。
  • 他们要承担哪些风险。
  • 如果没有这些答案,更多的曝光只会带来更多的变化。

    缺失的部分:基于角色的清晰度

    人工智能素养计划中最常见的失败点之一是人工智能素养被视为一种通用能力。它不是。人工智能在营销中的使用与人工智能在人力资源中的使用不同。运营中的人工智能使用与合规性中的人工智能使用不同。人工智能在个人贡献者层面的使用与人工智能在领导角色中的使用不同。

    然而,许多程序的设计似乎是一种方法适合所有情况。当这种情况发生时,员工只能自己将抽象指导转化为实际工作。有些人会做得很好。许多人不会。这就是为什么有效的人工智能素养必须植根于:

  • 真实任务。
  • 真正的决定。
  • 实际约束。
  • 真实的输出标准。
  • 如果没有这一点,训练就会与表现脱节。