由于错误信息在社交媒体平台上越来越多,因此探索如何最好地将自动化新闻信誉评估传达给最终用户以及促进事实检查AIS的信任至关重要。在本文中,我们研究了模型 - 不合稳定的自然语言解释如何影响对事实检查AI的信任和依赖。我们从四个概念化验证(CVS)(即共识,专家,内部(逻辑)和经验)中构建解释,它们是证据的基本单位,这些证据是人类利用AndacceptNewinInformation的基础单位具有挑战性的,不同的CVS导致不同程度的依赖。我们发现共识的解释是最不影响的,专家,内部和经验解释的影响是两倍。但是,我们还发现用户无法辨别AI是否将其指向真相,从而强调了指导和潜在误导的解释的双重性质。此外,我们在协作事实检查过程中发现了自动化偏见和厌恶的存在,这表明用户以前建立的对AI的信任如何减轻他们对AI判断的依赖。我们还观察到在传统矫正中经常看到的“ Boomerang”/反向效应的表现,因为那些认为AI是有偏见或不信任的人在受AI挑战时会偏向或加倍(在)上(IN)正确的信念。我们通过在基于AI的事实检查期间对用户行为动态的细微见解得出结论,为社交媒体平台提供重要的课程。