详细内容或原文请订阅后点击阅览
专家称,人择与五角大楼争端揭示了人工智能自我调节的局限性
雪城大学自治系统政策研究所所长哈米德·埃克比亚 (Hamid Ekbia) 探讨了人智与五角大楼对峙背后的政治和经济力量,以及这对人工智能自我监管的未来意味着什么。专家称,后人智与五角大楼争端揭示了人工智能自我监管的局限性,专家称,《今日雪城大学》首先发表在《今日雪城大学》上。
来源:雪城大学人工智能公司能否在接受政府资金的同时仍对其技术的使用方式设置限制?这个问题是五角大楼和 Anthropic 之间持续争论的核心,雪城大学教授哈米德·埃克比亚 (Hamid Ekbia) 表示,它暴露了人工智能行业运作方式的根本紧张关系。
人工智能政策学术联盟创始主任 Ekbia 表示,五角大楼要求 Anthropic 要么改变其做法,要么放弃利润丰厚的合同,这是当前联邦政策的一个生动例子。 “由于美国大部分公共人工智能资金仍然来自国防,企业要么必须让步,要么将自己排除在这一独特的资金来源之外,”埃克比亚说。
虽然 Anthropic 调整了一些安全政策,但迄今为止,它拒绝允许其技术用于家庭监控或自主无人机,Ekbia 表示,这一区别很重要。
“对于任何关心此类应用的观察者来说,这都是值得庆祝的,”他说。 “但未来的问题是这种情况是否会继续下去。”
政治和经济力量
Ekbia 表示,Anthropic 面临的压力反映出联邦政府对人工智能监管方式的更广泛转变。
“特朗普政府的反监管政策没有为以安全为导向的人工智能方法留下太多空间,”他说,并补充说,这些政策迫使公司和监管机构“以创新的名义采取激进且常常鲁莽的行为”。
市场竞争加剧压力。 Ekbia 表示:“人工智能生态系统的定义是,几大参与者之间展开激烈竞争,争夺快速发展的行业中的最大份额。” “人工智能行业的‘道德经济’是丛林之一,只有最鲁莽、最无情和最具攻击性的行为才会得到回报。”
员工作为通配符
“这些领域的变化速度如此之快,因此很难做出可靠的预测,”Ekbia 说。
