人工智能测谎仪击败人类并可能造成社会混乱

维尔茨堡大学和马克斯普朗克人类发展研究所的研究人员训练了一个人工智能模型来检测谎言,这可能会扰乱我们彼此交往的方式。人类并不擅长分辨一个人是在撒谎还是在说实话。实验表明,我们的命中率最多只有 50% 左右,这种糟糕的表现决定了我们如何相互交往。真值默认理论 (TDT) 认为,人们通常会假设一个人告诉他们的话是真的。称某人为骗子的社会成本太大,风险太大。这篇文章《人工智能测谎仪击败人类,可能会扰乱社会》首先出现在 DailyAI 上。

来源:DailyAI | 探索人工智能的世界

维尔茨堡大学和马克斯普朗克人类发展研究所的研究人员训练了一个人工智能模型来检测谎言,这可能会破坏我们彼此交往的方式。

维尔茨堡大学和马克斯普朗克人类发展研究所的研究人员训练了一个人工智能模型来检测谎言,这可能会破坏我们彼此交往的方式。

人类并不擅长分辨一个人是在撒谎还是在说实话。实验表明,我们的命中率最多只有 50% 左右,这种糟糕的表现决定了我们如何相互交往。

真值默认理论 (TDT) 认为,人们通常会假设一个人告诉他们的话是真的。由于我们的谎言检测能力为 50/50,称某人为骗子的社会成本风险太大,而且事实核查在当下并不总是可行的。

测谎仪和其他测谎技术可以获取压力指标和眼球运动等数据,但您不太可能在下一次对话中使用其中任何一种。人工智能能帮上忙吗?

这篇论文解释了研究团队如何训练谷歌的 BERT LLM 来检测人们何时撒谎。

这篇论文

研究人员招募了 986 名参与者,并要求他们描述他们的周末计划,并附上后续解释以支持他们陈述的真实性。

然后向他们展示另一位参与者的周末计划,并要求他们写一份虚假的支持声明,辩称这些实际上是他们周末的计划。

BERT 接受了 1,536 条陈述中的 80% 的训练,然后负责评估这些陈述的其余部分的真实性。

该模型能够准确地将陈述标记为真或假,准确率为 66.86%,明显优于人类法官在进一步实验中实现的 46.47% 的准确率。

你会使用人工智能测谎仪吗?

研究人员发现,当参与者面临使用人工智能测谎模型的选项时,只有三分之一的人决定接受这个提议。