本文提出了对AI可信度的正式描述,并在操作示意图中连接了内在和感知的可信度。我们认为,可信度超出了AI系统的固有功能,包括观察者的看法,例如感知到的透明度,代理基因座和人类的监督。在文献中讨论了感知到的可信度的概念,但很少有尝试将其与AI系统的内在可信度联系起来。我们的分析引入了一种新颖的示意图,以评估预期和观察到的行为之间的差异以及这些如何影响感知的不确定性和信任,以量化可信度。本文考虑了感知和内在特征,为衡量可信赖性提供了形式化。通过详细说明影响信任的因素,本研究旨在促进更具道德和广泛接受的AI技术,以确保它们符合功能和道德标准。
“凭借经验、表现和测试,您已晋升为首席军士长。在美国海军——而且只有在美国海军——E7 军衔具有独特的责任和特权,您需要履行并必须遵守。您的整个生活方式都发生了变化。对您的期望会更高;对您的要求也会更高。不是因为您是 E7,而是因为您现在是一名首席军士长。”
近年来,人工智能技术不断取得显著进展,已广泛应用于社会的各个方面。特别是在图像处理领域,发展迅速的先进生成式人工智能技术已使人们能够轻松创建与真实照片具有相同细节水平的生成和处理图像。它已成为一种强大的工具,通过可视化难以拍摄或实际上不存在的事件来增强我们的理解和认识。在数码相机中,此类人工智能技术用于拍摄时的场景检测、图像识别和图像处理,不仅有助于提高图像质量,而且还可以在传统技术难以捕捉的情况下捕捉高质量的图像和视频。正如这些例子所示,人工智能技术在数码相机中的应用有望进一步扩大图像/视频在社会中应用的可能性。另一方面,生成式人工智能技术的进步使人们能够轻松且廉价地创建与数码相机拍摄的图像和视频无法区分的高清图像和视频,通过传播虚假图像和视频来诱导舆论已成为一个社会问题。此外,数码相机的 AI 图像处理可能会无意中记录与真实事件不同的图像和视频,这可能会根据图像和视频的预期用途造成问题。这些都是与数码相机拍摄的图像和视频的可信度相关的问题,也是相机制造商不能忽视的风险因素,他们一直致力于提高“捕捉真相”的能力。
本论文(主人)是由达特茅斯数字共享的这些论文和论文免费带给您的。已被达特茅斯数字共享的授权管理人纳入达特茅斯学院硕士的论文。有关更多信息,请联系dartmouthdigitalcommons@groups.dartmouth.edu。
定性数据的可信赖性是有争议的,但它得到了支持者的强烈支持。但是,定性数据的重要性和价值不会受到破坏。本文对定性数据的可信度进行了批判性审查。可以通过确保可信度,可转移性,可靠性和研究设计,过程和行动的可信度,可转让性,可靠性和可比性来衡量定性研究的信任程度。由于其主观性质,定性研究中可信度的保证比定量研究中更为复杂。许多研究人员和专家否认定性研究的普遍性。但是,很少有Guba(1985)的研究人员开发了一种广泛接受的模型和策略,以确保定性研究的可信度和普遍性。可信度就像定量分析中的内部有效性,并提供了有关该现象的实际数据。可转移性显示了研究发现在其他确切的上下文,人,群体和环境中的应用程度。如果一项研究的发现在相似的人群,状况或环境中复制,则发现可靠。中立性是结果的公平程度,包括初始响应和无偏见的纯度。关键词:信誉;可靠;中立可转让性;值得信赖; GUBA模型
摘要 - 大脑计算机界面(BCI)使人们能够直接与外围设备进行通信和操作。由于其快速通信速率和高信号噪声比,近年来,基于稳态的视觉诱发电位(SSVEP) - 基于BCI的系统已被广泛研究。许多当前的SSVEP识别方法通过发现最大的相关系数来确定目标类别。但是,当最大的系数与其余值没有显着差异时,分类性能通常会降低。这项研究提出了一种基于贝叶斯的分类置信估计方法,以增强基于SSVEP的BCI系统的目标识别性能。在我们的方法中,使用基本目标识别方法产生的最大值和其他值之间的差异用于在训练过程中定义特征向量。使用高斯混合模型(GMM)来估计正确与错误分类的特征向量的概率密度函数。随后,在测试程序中通过贝叶斯推断计算出准确和错误分类的后验概率。基于两个后验概率提出了分类置信值(CCVALUE),以估计分类信心。最后,决策规则可以确定是否应接受或拒绝当前的分类结果。对开放式基准数据集和自收集的数据集进行了广泛的评估研究。实验结果证明了提出的方法提高基于SSVEP的BCI系统的可靠性的有效性和可行性。
•天气对传感器性能的影响非常复杂2,包括多个变量和因素之间的许多非明显相互作用。•即使我们能够构建一个“完美”的虚拟测试环境(VTE),该环境(VTE)忠实地将输入天气和风景参数转换为输出传感器响应3,所需的输入数量也将比现有奇数分类学中当前所描述的要大得多,以便完全解释传感器对天气的响应。•成功整合了不同的测试域(校准实验室,现实世界4,模拟5,虚拟)要求所有利益相关者对其目的(和局限性)的共同理解,而且在批判性地,与与之相关的不确定性如何共同管理。
本文解决了现有的AI风险管理框架中的关键差距,强调了对人为因素的忽视以及缺乏社会相关或人类威胁的指标。从NIST AI RFM和Enisa提供的见解中得出,研究强调了了解人类相互作用的局限性以及道德和社会测量的局限性。本文探讨了可信赖性的各个方面,涵盖了立法,AI网络威胁情报和AI对手的特征。它深入研究了技术威胁和漏洞,包括数据获取,中毒和后门,强调了网络安全工程师,AI专家和社会心理学行为 - 行为 - 行为 - 伦理学专业人员之间协作的重要性。此外,研究了与AI融入社会相关的社会心理威胁,解决了诸如偏见,错误信息和隐私侵蚀等问题。手稿提出了一种全面的AI可信度方法,结合了技术和社会缓解措施,标准和正在进行的研究计划。此外,它还引入了创新的防御策略,例如网络社会练习,数字克隆和对话代理,以增强对对手的理解并加强AI安全性。本文以跨学科合作,宣传运动和持续研究的呼吁结束,以创建一个与道德标准和社会期望相符的强大而有弹性的AI生态系统。
人工智能生态系统的特点是其动态和快速发展的特性,从开发者到最终用户和监管机构,涉及广泛的利益相关者。人工智能技术的吸引力不仅在于目前展示的能力,还在于它们有望满足数字互联世界日益增长的需求。然而,这种前景也伴随着重大挑战,这些挑战对该技术的可靠性、安全性和伦理影响提出了质疑。人工智能结果缺乏可解释性,甚至开发人员也难以理解人工智能模型如何做出某些决策,这可能会阻碍人们对人工智能的信任和理解,这凸显了对透明和负责任的系统的需求。此外,人工智能开发人员的道德价值观受到其地区、文化和教育背景的影响,这进一步使情况复杂化,表明在道德人工智能开发方面迫切需要共同点。此外,一个关键的挑战是人工智能开发人员缺乏网络安全专业知识,导致人工智能系统容易受到潜在威胁和入侵。随着人工智能越来越多地融入各个领域,对强大的网络安全控制的需求对于保护敏感数据和确保人工智能应用程序的完整性至关重要。德国标准化研究所(Deutsches Institut für Normung)在标准化路线图中承认了这些挑战,该路线图旨在确定标准化方面的差距并为政策制定者提供信息。
