详细内容或原文请订阅后点击阅览
信任、责任是国防部人工智能方法的核心
五角大楼人工智能高级官员表示,国防部采用人工智能的道路是以信任和责任为指导的。
来源:美国国防部消息五角大楼一位高级人工智能官员今天表示,国防部采用人工智能的道路以信任和责任为指导。
国防部首席数字和人工智能办公室首席技术官 William Streilein 表示,他的办公室已启动了一项全部门的努力,重点是了解国防部如何加速采用生成式人工智能来支持作战人员。
作为这项名为“利马任务组”的努力的一部分,Streilein 表示,他的办公室已经确定了近 200 个用例,说明国防部如何在各种职能中利用这项突破性技术。
“我们正在评估它们,我们试图了解哪些是适合目前的技术水平的,这一点很重要,”Streilein 在华盛顿特区政府重点出版物《政府行政官》主办的关于国防部可信人工智能作用的讨论中说道。
“还有很多东西需要学习,”他说。 “它肯定具有商业应用,但在国防部内部,后果可能更严重,我们需要对如何利用它负责。”
Streilein 解释说,至关重要的是建立对该技术的每个应用的信任,即对 AI 算法产生预期结果的信心。
“这意味着我们必须做好测试,”他说。“我们必须能够指定我们希望算法做什么,然后才能满怀信心地向前迈进。”
他补充说,除了信任之外,国防部还特别强调 AI 道德原则的关键原则:责任、可靠性、公平性、可治理性和可追溯性。“这些实际上是适用于人类应用 AI 的术语,”他说。“这意味着我们在使用 AI 时应该始终负责任。我们应该知道我们是如何应用它的,知道我们对它有治理,知道我们理解它是如何提供答案的。”