本论文(主人)是由达特茅斯数字共享的这些论文和论文免费带给您的。已被达特茅斯数字共享的授权管理人纳入达特茅斯学院硕士的论文。有关更多信息,请联系dartmouthdigitalcommons@groups.dartmouth.edu。
定性数据的可信赖性是有争议的,但它得到了支持者的强烈支持。但是,定性数据的重要性和价值不会受到破坏。本文对定性数据的可信度进行了批判性审查。可以通过确保可信度,可转移性,可靠性和研究设计,过程和行动的可信度,可转让性,可靠性和可比性来衡量定性研究的信任程度。由于其主观性质,定性研究中可信度的保证比定量研究中更为复杂。许多研究人员和专家否认定性研究的普遍性。但是,很少有Guba(1985)的研究人员开发了一种广泛接受的模型和策略,以确保定性研究的可信度和普遍性。可信度就像定量分析中的内部有效性,并提供了有关该现象的实际数据。可转移性显示了研究发现在其他确切的上下文,人,群体和环境中的应用程度。如果一项研究的发现在相似的人群,状况或环境中复制,则发现可靠。中立性是结果的公平程度,包括初始响应和无偏见的纯度。关键词:信誉;可靠;中立可转让性;值得信赖; GUBA模型
本文解决了现有的AI风险管理框架中的关键差距,强调了对人为因素的忽视以及缺乏社会相关或人类威胁的指标。从NIST AI RFM和Enisa提供的见解中得出,研究强调了了解人类相互作用的局限性以及道德和社会测量的局限性。本文探讨了可信赖性的各个方面,涵盖了立法,AI网络威胁情报和AI对手的特征。它深入研究了技术威胁和漏洞,包括数据获取,中毒和后门,强调了网络安全工程师,AI专家和社会心理学行为 - 行为 - 行为 - 伦理学专业人员之间协作的重要性。此外,研究了与AI融入社会相关的社会心理威胁,解决了诸如偏见,错误信息和隐私侵蚀等问题。手稿提出了一种全面的AI可信度方法,结合了技术和社会缓解措施,标准和正在进行的研究计划。此外,它还引入了创新的防御策略,例如网络社会练习,数字克隆和对话代理,以增强对对手的理解并加强AI安全性。本文以跨学科合作,宣传运动和持续研究的呼吁结束,以创建一个与道德标准和社会期望相符的强大而有弹性的AI生态系统。
人工智能生态系统的特点是其动态和快速发展的特性,从开发者到最终用户和监管机构,涉及广泛的利益相关者。人工智能技术的吸引力不仅在于目前展示的能力,还在于它们有望满足数字互联世界日益增长的需求。然而,这种前景也伴随着重大挑战,这些挑战对该技术的可靠性、安全性和伦理影响提出了质疑。人工智能结果缺乏可解释性,甚至开发人员也难以理解人工智能模型如何做出某些决策,这可能会阻碍人们对人工智能的信任和理解,这凸显了对透明和负责任的系统的需求。此外,人工智能开发人员的道德价值观受到其地区、文化和教育背景的影响,这进一步使情况复杂化,表明在道德人工智能开发方面迫切需要共同点。此外,一个关键的挑战是人工智能开发人员缺乏网络安全专业知识,导致人工智能系统容易受到潜在威胁和入侵。随着人工智能越来越多地融入各个领域,对强大的网络安全控制的需求对于保护敏感数据和确保人工智能应用程序的完整性至关重要。德国标准化研究所(Deutsches Institut für Normung)在标准化路线图中承认了这些挑战,该路线图旨在确定标准化方面的差距并为政策制定者提供信息。
双重转型(5)正在改变就业岗位和整个行业,颠覆劳动力市场需求,并导致许多行业出现技能短缺。如今,90% 的工作都需要数字技能,但只有 54% 的人口具备这些技能。欧洲必须大规模提高和重新培训劳动力,才能在全球竞争中站稳脚跟。国家职业教育与培训体系已经做出调整,促进了劳动力流动和终身学习,并创造了新的培训和认证形式。超过一半的欧盟成员国已经开始或计划将微证书(包括数字证书)纳入其国家资格框架,以赋予其价值并便于比较。学习者越来越需要更短、更灵活的再培训或提高技能模式,以适应他们的日程安排、专业需求和工作与生活的平衡。虽然职业教育与培训体系一直在适应需求变化,例如在模块化和纳入部分资格方面,但微证书往往更能满足即时需求,例如灵活的、以学习者为中心的途径。微证书有多种用途。这些用途包括提供进入劳动力市场的切入点,例如食品、护理和清洁服务,以及提供先进和 IT 密集型制造业中高价值的专业补充解决方案。它们有助于塑造创新集群等工业生态系统,并在商业创新甚至区域经济重组中发挥作用。它们面向当地需求并通过全球平台提供。有些可以快速、有针对性地应对特定技能差距,而另一些则嵌入综合技能战略中。框 1. 欧盟清洁行业的技能和培训
人工智能 (AI) 领域的加速发展暗示着需要将“信任”视为设计原则而不是选择。此外,基于人工智能的关键系统的设计,例如航空电子、移动、国防、医疗保健、金融、关键基础设施等,需要证明其可信度。因此,基于人工智能的关键系统必须由不同方(监管机构、开发商、客户、再保险公司和最终用户)出于不同原因从多个维度进行评估。我们可以称之为人工智能验证、监控、评估或审计,但在所有情况下,基本概念都是确保人工智能在其操作设计领域内表现良好。此类评估从开发的早期阶段开始,包括定义系统的规范要求、分析、设计等。信任和可信度评估必须在系统生命周期的每个阶段考虑,包括销售和部署、更新、维护或内部。预计只有在建立可信度的技术措施与使用和开发人工智能的组织的治理和流程规范相结合的情况下,才能在人工智能系统中建立完全的可信度。应用社会科学和人文科学 (SSH) 方法和原则来处理人与人工智能的互动,并帮助在设计和评估中实现(道德)价值观,
AI = 人工智能 ML = 机器学习 IPC = 创新伙伴关系合同 CAT = 商业航空运输 SPO = 单飞行员操作 CDR = 冲突检测与解决
创新,包括采用数字和人工智能技术,可以提供提高效率的机会,使政府能够简化日常互动和流程,将资源集中在更复杂和更紧迫的问题上,并满足澳大利亚人民的需求和期望。社会对公共服务质量的期望越来越高:要求更高的护理标准;要求量身定制和个性化的服务;要求在获取服务时具有更高的响应能力、便利性和效率。澳大利亚人口正在老龄化,对护理和支持服务的需求不断增加。与此同时,老年人口在人口中所占比例的增加意味着更少的适龄澳大利亚人可以帮助资助公共服务。1 气候变化等外部力量也有望增加对服务的需求,同时减少可用于提供服务的资源(人员和资金)。
调查用于了解社区情绪,并深入了解社区对公共服务使用人工智能可能带来的好处的期望、担忧和看法。重要的是,这些调查填补了社区情绪知识的空白。虽然有关于对公共服务的信任 1 以及对人工智能和其他新兴技术的信任的信息,但人们对政府在公共服务中使用人工智能的信任知之甚少。长期洞察简报试点中的调查是一种更好地了解社区对在公共服务中使用人工智能的看法以及影响政府机构可信度的因素的方法。
联合国可持续发展目标(UN SDG)已将移动连接确定为可持续经济增长和相关社会发展的关键驱动力。公共安全和数据隐私保护是社会发展的基础。6G预计将进一步加强公共安全和数据隐私,同时通过智慧城市、智能交互系统、智能医疗、智能交通、教育和智能零售等用例促进社会发展。这些用例对全球社会的发展和成长都很重要。隐私系统的大量暴露和用户数据应用的大量处理(例如,工业智能控制、无人驾驶汽车、虚拟现实和其他高科技相关行业)将需要在6G中内置基本保护措施。基本上,数据和控制系统暴露的影响越大,需要内置的保护和可靠性就越多。这意味着6G的可信度要求必须与社会需求保持一致,以确保个人的日常活动和应对社会挑战。