详细内容或原文请订阅后点击阅览
新研究发现,人工智能越大并不总是越好
根据信息技术服务和咨询公司 Hyperion Research 的说法,在有限数据集上训练的人工智能模型比“一刀切”的解决方案表现更好。
来源:美国国防杂志新闻刚刚:新研究发现,人工智能越大并不总是越好
iStock 插图
根据信息技术服务和咨询公司 Hyperion Research 的说法,在有限数据集上训练的人工智能模型比“一刀切”的解决方案表现更好。
根据该公司的“2026 年预测:新变化和新变化”报告,当前的大型语言模型依赖于海量多语言数据集和较长的训练周期,而用于通用人工智能训练的数据集最近以每年 2.7 倍的速度增长。
然而,Hyperion Research 首席执行官 Earl Joseph 在接受采访时表示,中小型人工智能系统应该是“出路”,随着模型和数据集范围的缩小,准确性、延迟性和相关性往往会得到改善。
例如,“如果您仅针对”美国退伍军人而不是整个人口的信息运行医疗保健数据集,“您将获得更高质量的数据,”约瑟夫说。
“为了让人工智能发挥良好作用,你确实必须有一个清理数据的机制,”他说。 “有大量的例子表明数据本身正在扰乱人工智能系统,因此为了让军队和美国政府真正取得成功,他们需要从这个意义上对这些大型模型进行真正的调整和清理。”
他说,国防部需要构建这些人工智能模型的公司在这个“清理”过程中承担更多责任,这需要政府和行业之间的合作。
“我不建议政府尝试出去建立自己的巨型模型,但是……我们认为政府会做的是,他们将尽可能地利用大型模型、大型软件,但随后也必须投资于”中小型人工智能系统。
他说,了解人工智能系统能做什么和不能做什么至关重要,特别是在战场环境中,为了让作战人员信任这些系统,军方将不得不采用更小的模型。
