详细内容或原文请订阅后点击阅览
ai奇异性和摩尔定律的终结:自学机器的崛起
LG AI研究的最新论文表明,据说用于培训AI模型的“开放”数据集可能会提供错误的安全感 - 发现在五个AI数据集中,近四个被标记为“商业上使用”的数据集实际上包含隐藏的法律风险。这种风险范围从包含未公开的受版权保护材料到[…]邮政将近80%的培训数据集可能是企业AI的法律危害,首先是在Unite.ai上出现的。
来源:Unite.AILG AI研究的最新论文表明,据说用于培训AI模型的“开放”数据集可能会提供错误的安全感 - 发现在五个AI数据集中,近四个被标记为“商业上使用”的数据集实际上包含隐藏的法律风险。
这种风险范围从包含未公开的受版权保护材料到埋在数据集依赖关系深处的限制性许可条款。如果本文的发现是准确的,那么依靠公共数据集的公司可能需要重新考虑其当前的AI管道,或者在下游法律曝光。
研究人员提出了一种根本性且潜在的有争议的解决方案:基于AI的合规代理,能够比人类律师更快,更准确地扫描和审核数据集历史。
可能有争议的纸张指出:
‘本文主张AI培训数据集的法律风险不能仅通过审查表面级许可条款来确定;对数据集重新分布进行彻底的端到端分析对于确保合规性至关重要。
‘由于这种分析由于其复杂性和规模而超出了人类的能力,因此AI代理可以通过更高的速度和准确性进行弥补这一差距。没有自动化,关键的法律风险在很大程度上仍未受到检查,这危害道德AI的发展和监管依从性。
‘我们敦促AI研究界认识到端到端的法律分析是基本要求,并采用AI驱动的方法作为可伸缩数据集合的可行途径。”
研究2,852个受欢迎的数据集,这些数据集是根据其个人许可证在商业上可用的,研究人员的自动化系统发现,一旦所有组件和依赖项都被追溯到
新论文的标题为“不信任您看到的许可” - 数据集合规性需要大规模的AI驱动生命周期跟踪,并且来自LG AI Research的八名研究人员。
新纸