新的人工智能技术探测音频深度赝品

来自澳大利亚国家科学机构 CSIRO、澳大利亚联邦大学和 RMIT 大学的研究人员开发了一种改进音频深度伪造检测的方法。这项名为“Rehearsal with Auxiliary-Informed Sampling (RAIS)”的新技术专为音频深度伪造检测而设计,这是网络犯罪风险中日益严重的威胁,例如绕过基于语音的生物特征认证系统、冒充和虚假信息。 [...]

来源:ΑΙhub

来自澳大利亚国家科学机构 CSIRO、澳大利亚联邦大学和 RMIT 大学的研究人员开发了一种改进音频深度伪造检测的方法。

新技术“辅助知情采样排练”(RAIS) 专为音频深度伪造检测而设计,这是一种日益严重的网络犯罪风险威胁,例如绕过基于语音的生物识别系统、冒充和虚假信息。它确定音频剪辑是真实的还是人工生成的(“深度伪造”),并随着攻击类型的演变而保持性能。

今年早些时候,意大利国防部长的人工智能克隆声音向著名商界领袖索要 100 万欧元“赎金”,说服一些人支付。这只是众多例子之一,凸显了对音频深度伪造检测器的需求。

随着深度伪造音频技术的迅速发展,较新的“伪造技术”通常看起来与旧技术完全不同。

“我们希望这些检测系统能够学习新的 Deepfakes,而不必从头开始再次训练模型。如果只是对新样本进行微调,就会导致模型忘记它之前知道的较旧的 Deepfakes,”联合作者、CSIRO Data61 的 Kristen Moore 博士说道。

“RAIS 通过自动选择和存储一组小型但多样化的过去示例来解决这个问题,其中包括人类可能没有注意到的隐藏音频特征,以帮助人工智能学习新的 Deepfake 风格,而不会忘记旧的风格,”摩尔博士解释道。

RAIS 使用由网络支持的智能选择过程,为每个音频样本生成“辅助标签”。这些标签有助于识别一组多样化且具有代表性的音频样本以供保留和排练。通过在简单的“假”或“真实”标签之外添加额外的标签,RAIS 确保了更丰富的训练数据组合,从而提高了记忆和适应时间的能力。

GitHub

阅读并下载全文:使用辅助知情采样进行音频 Deepfake 检测的排练。

联邦科学与工业研究组织