其他详细信息:人们普遍认为,人工智能 (AI) 系统的“可信度”对于其在社会各个领域的发展和适当使用至关重要。当然,说起来容易做起来难,而且对于什么是可信赖的 AI,以及定义和实现可信赖 AI 系统目标所需的研究、标准和政策步骤,几乎没有达成一致意见。本次研讨会启动了一项 NIST 计划,涉及私营和公共部门组织和个人,讨论可信赖 AI 系统的构建模块以及在开发、使用和测试 AI 系统时实现这些构建模块的相关测量、方法、标准和工具。 NIST 的努力将通过本次首次会议之后的一系列研讨会来了解。注册链接:https://www.nist.gov/news-events/events/2020/08/exploring-ai-trustworthiness- workshop-series-kickoff-webinar
背景:人工智能 (AI) 的不断发展和软件初创公司采用率的不断提高要求在设计和开发阶段实施治理措施,以帮助缓解 AI 治理问题。大多数 AI 道德设计和开发工具主要依靠 AI 道德原则作为开发道德 AI 的主要治理和监管工具,为 AI 治理提供信息。然而,由于缺乏信息稳健性,AI 道德原则被认为不足以进行 AI 治理,需要额外的治理措施。自适应治理已被提出将既定的治理实践与 AI 道德原则相结合,以改进信息和后续 AI 治理。我们的研究探索了自适应治理作为提高 AI 道德设计和开发工具信息稳健性的一种手段。我们使用 ECCOLA(一种在早期开发阶段进行道德 AI 软件开发的工具)将信息治理实践与 AI 道德原则相结合。目的:ECCOLA 如何通过使其适应 GARP ® IG 实践来提高其稳健性?方法:我们以 ECCOLA 为例,批判性地分析其 AI 道德原则与一般接受的记录保存原则 (GARP ® ) 的信息治理实践。结果:我们发现,通过将其与信息管理实践(保留和处置)相结合,可以提高 ECCOLA 的稳健性。结论:我们建议通过新的管理主题和卡片 # 21 来扩展 ECCOLA。
目的:定性研究通常因缺乏严格而受到批评,很少在市场研究中使用。但是,营销文献中当前的趋势显示了营销研究中定性方法的稳定增长。本研究旨在探讨营销学科中的定性研究人员如何建立可信赖性。方法论:我探讨了婚姻学科中的定性研究人员如何建立可信赖性并确保严格。我分析了在顶级营销期刊上发表的定性研究论文,以实现这一目标。调查结果:调查结果表明,大多数论文采用了Guba(1981)的信任标准。但是,应用这些标准从一个作者到另一个作者不同。独创性:针对营销学科中定性研究人员建立可信赖性的研究。本研究解决了这个问题,并显示了文献中当前的趋势,尤其是在混合方法研究方面。
早点开始:越早开始计划,越好。在您的军事过渡之前长达三年的退休计划开始计划。寻求建议:咨询可信赖的个人财务经理或辅导员,以确保您处于正确的道路上。他们可以提供可信赖的资源。构建一个灵活的计划:创建一个可以适应生活变化或意外事件的计划。采取这些步骤为过渡和更安全的未来铺平道路。准备潜水了吗?更多地了解如何有效计划进行军事退休。
摘要 - Edge Intelligence(EI)集成了边缘计算(EC)和人工智能(AI),以将AI的功能推向网络边缘,以实时,有效且安全的智能决策和计算。但是,EI由于资源限制,异质网络环境以及不同范围的各种服务要求而面临各种挑战,这在利益相关者眼中共同影响了EI的可信赖性。本调查全面总结了可信赖的EI的特征,建筑,技术和解决方案。特别是,我们首先强调了在大型模型趋势的背景下需要值得信赖的EI。然后,我们提供了值得信赖的EI的最初定义,探索其关键特征,并为可信赖的EI提供多层体系结构。然后,我们为值得信赖的EI系统提供了能力技术。随后,我们总结了几个重要的问题,这些问题阻碍了值得信赖的EI的实现,并对最先进的解决方案进行了深入的文献综述,以实现EI的可信度。最后,我们讨论了相应的研究挑战和开放问题。
抽象的深度学习仍然在可信度方面存在缺点,它描述了一种可理解,公平,安全和可靠的方法。为了减轻AI的潜在风险,已通过监管指南(例如,在《欧洲AI法》中)提出了与可信赖性相关的明确义务。因此,一个核心问题是可以在多大程度上实现值得信赖的深度学习。建立构成可信赖性的所描述属性要求可以追溯影响算法计算的因素,即算法实现是透明的。以这样的观察到,深度学习模型的当前演变需要改变计算技术的变化,我们得出了一个数学框架,使我们能够分析计算模型中透明的实现是否可行。我们示例地应用了我们的可信度框架,分别分析图灵和Blum-Shub-Smale机器代表的数字和模拟计算模型中的反相反问题的深度学习。基于先前的结果,我们发现Blum-Shub-Smale机器有可能在相当一般的条件下为反问题建立可信赖的求解器,而Turing Machines不能保证具有相同程度的可信度。
《联邦公报》:: 在联邦政府中推广使用可信赖的人工智能:https://www.federalregister.gov/documents/2020/12/08/2020-27065/promoting- the-use-of-trustworthy-artificial-intelligence-in-the-federal-government
摘要 [动机] 人工智能(AI)为公共机构创造了许多机会,但在公共服务中不道德地使用AI会降低公民的信任。 [问题] 本研究的目的是确定公民对公共部门可信赖的AI服务有什么样的要求。 该研究包括21次访谈和四项公共AI服务的设计研讨会。 [结果] 主要发现是所有参与者都希望公共AI服务是透明的。 这种透明度要求涵盖了可信赖的AI服务必须回答的许多问题,例如其目的。 参与者还询问了AI服务中使用的数据以及数据的收集来源。 他们指出,AI必须提供易于理解的解释。 我们还区分了另外两个重要要求:控制个人数据的使用和让人类参与AI服务。 [贡献] 对于从业者,本文提供了可信赖的公共AI服务应该回答的问题清单。 对于研究界,它从公民的角度阐明了AI系统的透明度要求。
