详细内容或原文请订阅后点击阅览
AI文本到语音程序可以“学习”如何模仿某些人
一种被称为“机器学习”的技术可以教授AI模型忘记特定的声音,这是停止音频深击的兴起的重要一步,在这种情况下,某人的声音被复制以进行欺诈或骗局。人工智能的最新进展彻底改变了文本到语音技术的质量,因此人们可以令人信服地重新创建……
来源:MIT Technology Review _人工智能AI公司通常会紧紧抓住模型以阻止滥用。例如,如果您要求chatgpt给您某人的电话号码或说明非法的说明,则可能只会告诉您它无济于事。但是,正如许多示例随着时间的流逝所表明的那样,聪明的及时工程或模型进行微调有时会使这些模型说出他们原本不会的话。不需要的信息可能仍隐藏在模型内部的某个地方,因此可以使用正确的技术访问它。
微调目前,公司倾向于通过应用护栏来处理这个问题;这个想法是检查提示还是AI的响应是否包含不允许的材料。相反,机器询问是否可以使AI忘记公司不希望它知道的信息。该技术采用泄漏的模型和要编辑的特定培训数据,并使用它们来创建一个新模型,这是一种原始的版本,它从未学会了该数据。虽然机器的学习与AI研究中的较旧技术有联系,但仅在过去的几年中,它才被应用于大型语言模型。
Jinju Kim是Sungkyunkwan大学的硕士学生,他与KO和其他人一起在报纸上工作,将护栏视为围绕不良数据的篱笆,以使人们远离它。金说:“您无法穿过篱笆,但是有些人仍然会试图在篱笆下或围栏上。”她说,但是没有学习,试图完全删除不良数据,因此围栏后根本没有什么。
为了演示如何获得这些结果,Kim教授了Meta的语音生成模型的Recreation,即当提示它在要编辑的声音之一中产生文本样本时,它应该以随机的语音做出响应。为了使这些声音逼真,模型使用其自身创造的随机声音“教”自己。
结果 工具 在线 研讨会