本文提出了对AI可信度的正式描述,并在操作示意图中连接了内在和感知的可信度。我们认为,可信度超出了AI系统的固有功能,包括观察者的看法,例如感知到的透明度,代理基因座和人类的监督。在文献中讨论了感知到的可信度的概念,但很少有尝试将其与AI系统的内在可信度联系起来。我们的分析引入了一种新颖的示意图,以评估预期和观察到的行为之间的差异以及这些如何影响感知的不确定性和信任,以量化可信度。本文考虑了感知和内在特征,为衡量可信赖性提供了形式化。通过详细说明影响信任的因素,本研究旨在促进更具道德和广泛接受的AI技术,以确保它们符合功能和道德标准。