本文提供了一种使用自动测试设备(ATE)评估下机航空电子系统健康监测可信度的方法。指标包括假阳性、假阴性、真阳性和真阴性的概率。我们首次考虑了刺激信号源(SSS)的不稳定性、测量通道误差的随机和系统分量以及系统本身的可靠性特性。我们考虑了永久性故障和间歇性故障的指数分布的具体情况,并推导出计算可信度指标的公式。数值计算说明了正确和错误决策的概率如何取决于精度参数。我们表明,当刺激信号的标准偏差增加时,假阳性和假阴性的概率增加得比真阳性和真阴性的概率下降得快得多。对于甚高频全向范围 (VOR) 接收器,我们证明即使刺激信号源产生的随机误差为零,假阳性和假阴性的概率也不同于零。
摘要 未来的许多决策支持系统都将以人为本,即需要大量的人为监督和控制。由于这些系统通常提供关键服务,因此需要高度保证它们满足其要求。本文是形式化方法、自适应代理和认知科学专家组成的跨学科研究团队的成果,通过提出一种开发高保证以人为本的决策系统的新流程来解决这一问题。该过程使用 AI(人工智能)方法(即用于预测人类行为的认知模型和用于协助人类的自适应代理)来提高系统性能,并使用软件工程方法(即形式化建模和分析)来获得系统按预期运行的高度保证。本文介绍了一种从事件序列图(消息序列图的变体)合成形式系统模型的新方法
本文提供了一种使用自动测试设备 (ATE) 评估下机航空电子系统健康监测可信度的方法。指标包括假阳性、假阴性、真阳性和真阴性的概率。我们首次考虑了刺激信号源 (SSS) 的不稳定性、测量通道误差的随机和系统分量以及系统本身的可靠性特性。我们考虑了永久性故障和间歇性故障的指数分布的具体情况,并推导出计算可信度指标的公式。数值计算说明了正确和错误决策的概率如何取决于精度参数。我们表明,当刺激信号的标准差增加时,假阳性和假阴性的概率增加得比真阳性和真阴性的概率下降得快得多。对于甚高频全向测距 (VOR) 接收器,我们证明即使刺激信号源产生的随机误差为零,假阳性和假阴性的概率也不为零。
摘要 由于人工智能(AI)研究及其部署和应用的广泛进展,近年来有关人工智能系统的公开辩论也获得了动力。随着《可信赖人工智能伦理指南》(2019)的发布,信任和可信度的概念在人工智能伦理辩论中引起了特别的关注;尽管人们普遍认为人工智能应该值得信赖,但信任和可信度在人工智能领域的含义并不明确。在本文中,我详细概述了迄今为止《人工智能伦理指南》中使用的信任概念。在此基础上,我从实践哲学的角度评估了它们的重叠和遗漏。我认为,目前,人工智能伦理倾向于过载可信度的概念。因此,它有可能成为一个流行词,无法转化为人工智能研究的工作概念。然而,我们需要的是一种方法,这种方法也借鉴了其他领域对信任的研究成果,例如社会科学和人文学科,尤其是实践哲学领域。本文旨在朝这个方向迈出一步。
图3 市售 AI 软件的显着相关性评估。通过扰动原始胸部 X 光片(上行),通过攻击代理模型生成对抗性图像(下行)。然后将对抗性图像输入到市售医疗 AI 模型中。请注意,从原始图像到对抗性图像对不同发现的预测概率变化很大,而
双重转型(5)正在改变就业岗位和整个行业,颠覆劳动力市场需求,并导致许多行业出现技能短缺。如今,90% 的工作都需要数字技能,但只有 54% 的人口具备这些技能。欧洲必须大规模提高和重新培训劳动力,才能在全球竞争中站稳脚跟。国家职业教育与培训体系已经做出调整,促进了劳动力流动和终身学习,并创造了新的培训和认证形式。超过一半的欧盟成员国已经开始或计划将微证书(包括数字证书)纳入其国家资格框架,以赋予其价值并便于比较。学习者越来越需要更短、更灵活的再培训或提高技能模式,以适应他们的日程安排、专业需求和工作与生活的平衡。虽然职业教育与培训体系一直在适应需求变化,例如在模块化和纳入部分资格方面,但微证书往往更能满足即时需求,例如灵活的、以学习者为中心的途径。微证书有多种用途。这些用途包括提供进入劳动力市场的切入点,例如食品、护理和清洁服务,以及提供先进和 IT 密集型制造业中高价值的专业补充解决方案。它们有助于塑造创新集群等工业生态系统,并在商业创新甚至区域经济重组中发挥作用。它们面向当地需求并通过全球平台提供。有些可以快速、有针对性地应对特定技能差距,而另一些则嵌入综合技能战略中。框 1. 欧盟清洁行业的技能和培训
定性数据的可信赖性是有争议的,但它得到了支持者的强烈支持。但是,定性数据的重要性和价值不会受到破坏。本文对定性数据的可信度进行了批判性审查。可以通过确保可信度,可转移性,可靠性和研究设计,过程和行动的可信度,可转让性,可靠性和可比性来衡量定性研究的信任程度。由于其主观性质,定性研究中可信度的保证比定量研究中更为复杂。许多研究人员和专家否认定性研究的普遍性。但是,很少有Guba(1985)的研究人员开发了一种广泛接受的模型和策略,以确保定性研究的可信度和普遍性。可信度就像定量分析中的内部有效性,并提供了有关该现象的实际数据。可转移性显示了研究发现在其他确切的上下文,人,群体和环境中的应用程度。如果一项研究的发现在相似的人群,状况或环境中复制,则发现可靠。中立性是结果的公平程度,包括初始响应和无偏见的纯度。关键词:信誉;可靠;中立可转让性;值得信赖; GUBA模型
近年来,人工智能技术不断取得显著进展,已广泛应用于社会的各个方面。特别是在图像处理领域,发展迅速的先进生成式人工智能技术已使人们能够轻松创建与真实照片具有相同细节水平的生成和处理图像。它已成为一种强大的工具,通过可视化难以拍摄或实际上不存在的事件来增强我们的理解和认识。在数码相机中,此类人工智能技术用于拍摄时的场景检测、图像识别和图像处理,不仅有助于提高图像质量,而且还可以在传统技术难以捕捉的情况下捕捉高质量的图像和视频。正如这些例子所示,人工智能技术在数码相机中的应用有望进一步扩大图像/视频在社会中应用的可能性。另一方面,生成式人工智能技术的进步使人们能够轻松且廉价地创建与数码相机拍摄的图像和视频无法区分的高清图像和视频,通过传播虚假图像和视频来诱导舆论已成为一个社会问题。此外,数码相机的 AI 图像处理可能会无意中记录与真实事件不同的图像和视频,这可能会根据图像和视频的预期用途造成问题。这些都是与数码相机拍摄的图像和视频的可信度相关的问题,也是相机制造商不能忽视的风险因素,他们一直致力于提高“捕捉真相”的能力。
随着人工智能应用在我们的日常生活中越来越普遍,立法者和当局正在努力建立对人工智能应用的高度信任。随着人工智能系统的发展并进入医疗保健和交通等关键领域,信任变得至关重要,需要考虑多个方面。人工智能系统必须确保其决策过程的公平性和公正性,以符合道德标准。自主性和控制是必要的,以确保系统在高效和有效的同时与社会价值观保持一致。人工智能系统的透明度有助于理解决策过程,而可靠性在各种情况下都至关重要,包括错误、偏见或恶意攻击。安全性对于关键的人工智能应用至关重要,可以防止伤害和不良后果。本文提出了一个框架,该框架利用各种方法为整个应用程序建立定性要求和定量指标,采用基于风险的方法。然后利用这些措施来评估人工智能系统。为了满足要求,在系统级别建立了各种手段(例如流程、方法和文档),然后针对不同维度进行详细说明和补充,以实现对人工智能系统的足够信任。对测量结果进行单独和跨维度评估,以评估人工智能系统满足可信要求的程度。