具有各种功能的人工智能语音代理人现在可以指导全球审讯。这一进步影响了旨在质疑寻求获取机密材料的人员的美国军事AI代理的设计和测试。随着人们对LAX法规的担忧,情况的到来,使AI程序员允许AI程序员躲避算法演员对情绪虐待或“无标志”的责任责任。值得注意的是,据称一名少年因自杀而丧生,其他几个人遭受了精神困扰 - 在与自学的VoiceBot和聊天机器人交谈后,可以分配拮抗语言。现在,在撰写了关于“自主机器人黎明中的A.I.审讯的兴起”中撰写身体酷刑的七年之后,需要对《联合国公约反对酷刑公约》进行额外的协议,隐私律师Amanda McAllister Novak认为对禁令和刑事反感的需求更大。诺瓦克说,在使用“聊天机器人,配音机器人和其他支持心理虐待的目的的技术)之后,我们必须考虑是否值得在军事背景下拥有AI-Equestioning Systems。”诺瓦克(Novak)与国防反情报和安全机构(DCSA)发言人Royal Reff对国防新闻进行了交谈,该声明在一份声明中说,该机构的AI语音代理人是“明确开发”的,该声明是“明确开发”到“ Mitigat [e] Mitigat [e]与人类偏见的人类访问者,以均为“ MITIGAT和文化偏见”。他说,在全球范围内,包括州和地方执法部门,我们认为对我们了解此类系统的能力很重要。”