双重转型(5)正在改变就业岗位和整个行业,颠覆劳动力市场需求,并导致许多行业出现技能短缺。如今,90% 的工作都需要数字技能,但只有 54% 的人口具备这些技能。欧洲必须大规模提高和重新培训劳动力,才能在全球竞争中站稳脚跟。国家职业教育与培训体系已经做出调整,促进了劳动力流动和终身学习,并创造了新的培训和认证形式。超过一半的欧盟成员国已经开始或计划将微证书(包括数字证书)纳入其国家资格框架,以赋予其价值并便于比较。学习者越来越需要更短、更灵活的再培训或提高技能模式,以适应他们的日程安排、专业需求和工作与生活的平衡。虽然职业教育与培训体系一直在适应需求变化,例如在模块化和纳入部分资格方面,但微证书往往更能满足即时需求,例如灵活的、以学习者为中心的途径。微证书有多种用途。这些用途包括提供进入劳动力市场的切入点,例如食品、护理和清洁服务,以及提供先进和 IT 密集型制造业中高价值的专业补充解决方案。它们有助于塑造创新集群等工业生态系统,并在商业创新甚至区域经济重组中发挥作用。它们面向当地需求并通过全球平台提供。有些可以快速、有针对性地应对特定技能差距,而另一些则嵌入综合技能战略中。框 1. 欧盟清洁行业的技能和培训
人工智能 (AI) 领域的加速发展暗示着需要将“信任”视为设计原则而不是选择。此外,基于人工智能的关键系统的设计,例如航空电子、移动、国防、医疗保健、金融、关键基础设施等,需要证明其可信度。因此,基于人工智能的关键系统必须由不同方(监管机构、开发商、客户、再保险公司和最终用户)出于不同原因从多个维度进行评估。我们可以称之为人工智能验证、监控、评估或审计,但在所有情况下,基本概念都是确保人工智能在其操作设计领域内表现良好。此类评估从开发的早期阶段开始,包括定义系统的规范要求、分析、设计等。信任和可信度评估必须在系统生命周期的每个阶段考虑,包括销售和部署、更新、维护或内部。预计只有在建立可信度的技术措施与使用和开发人工智能的组织的治理和流程规范相结合的情况下,才能在人工智能系统中建立完全的可信度。应用社会科学和人文科学 (SSH) 方法和原则来处理人与人工智能的互动,并帮助在设计和评估中实现(道德)价值观,
AI = 人工智能 ML = 机器学习 IPC = 创新伙伴关系合同 CAT = 商业航空运输 SPO = 单飞行员操作 CDR = 冲突检测与解决
创新,包括采用数字和人工智能技术,可以提供提高效率的机会,使政府能够简化日常互动和流程,将资源集中在更复杂和更紧迫的问题上,并满足澳大利亚人民的需求和期望。社会对公共服务质量的期望越来越高:要求更高的护理标准;要求量身定制和个性化的服务;要求在获取服务时具有更高的响应能力、便利性和效率。澳大利亚人口正在老龄化,对护理和支持服务的需求不断增加。与此同时,老年人口在人口中所占比例的增加意味着更少的适龄澳大利亚人可以帮助资助公共服务。1 气候变化等外部力量也有望增加对服务的需求,同时减少可用于提供服务的资源(人员和资金)。
调查用于了解社区情绪,并深入了解社区对公共服务使用人工智能可能带来的好处的期望、担忧和看法。重要的是,这些调查填补了社区情绪知识的空白。虽然有关于对公共服务的信任 1 以及对人工智能和其他新兴技术的信任的信息,但人们对政府在公共服务中使用人工智能的信任知之甚少。长期洞察简报试点中的调查是一种更好地了解社区对在公共服务中使用人工智能的看法以及影响政府机构可信度的因素的方法。
联合国可持续发展目标(UN SDG)已将移动连接确定为可持续经济增长和相关社会发展的关键驱动力。公共安全和数据隐私保护是社会发展的基础。6G预计将进一步加强公共安全和数据隐私,同时通过智慧城市、智能交互系统、智能医疗、智能交通、教育和智能零售等用例促进社会发展。这些用例对全球社会的发展和成长都很重要。隐私系统的大量暴露和用户数据应用的大量处理(例如,工业智能控制、无人驾驶汽车、虚拟现实和其他高科技相关行业)将需要在6G中内置基本保护措施。基本上,数据和控制系统暴露的影响越大,需要内置的保护和可靠性就越多。这意味着6G的可信度要求必须与社会需求保持一致,以确保个人的日常活动和应对社会挑战。
随着人工智能应用在我们的日常生活中越来越普遍,立法者和当局正在努力建立对人工智能应用的高度信任。随着人工智能系统的发展并进入医疗保健和交通等关键领域,信任变得至关重要,需要考虑多个方面。人工智能系统必须确保其决策过程的公平性和公正性,以符合道德标准。自主性和控制是必要的,以确保系统在高效和有效的同时与社会价值观保持一致。人工智能系统的透明度有助于理解决策过程,而可靠性在各种情况下都至关重要,包括错误、偏见或恶意攻击。安全性对于关键的人工智能应用至关重要,可以防止伤害和不良后果。本文提出了一个框架,该框架利用各种方法为整个应用程序建立定性要求和定量指标,采用基于风险的方法。然后利用这些措施来评估人工智能系统。为了满足要求,在系统级别建立了各种手段(例如流程、方法和文档),然后针对不同维度进行详细说明和补充,以实现对人工智能系统的足够信任。对测量结果进行单独和跨维度评估,以评估人工智能系统满足可信要求的程度。
摘要尽管最近人们致力于使人工智能系统更加透明,但人们对此类系统普遍缺乏信任,这仍然阻碍了人们和组织使用或采用它们。在本文中,我们首先从最终用户可解释性和规范伦理的角度介绍评估人工智能解决方案可信度的方法。然后,我们通过一个涉及实际商业环境中使用的人工智能推荐系统的案例研究说明了它的采用情况。结果表明,我们提出的方法可以识别与人工智能系统相关的广泛实际问题,并进一步支持制定改进机会和通用设计原则。通过将这些发现的机会与道德考虑联系起来,总体结果表明,我们的方法可以支持可信人工智能解决方案的设计和开发以及符合道德的业务改进。
社交媒体上的错误信息已成为一个严重问题。用可信度指标(可能是由人工智能模型生成的)标记新闻报道是帮助人们打击错误信息的一种方法。在本文中,我们报告了两项随机实验的结果,旨在了解当人们受到社会影响,以至于他们对新闻的判断受到其他人的影响时,基于人工智能的可信度指标对人们对新闻的看法和参与度的影响。我们发现,基于人工智能的可信度指标的存在会促使人们将他们对新闻真实性的信念与人工智能模型的预测相一致,而不管其正确性如何,从而改变人们检测错误信息的准确性。然而,当存在社会影响时,基于人工智能的可信度指标对影响人们对真实新闻或虚假新闻的参与度的影响有限。最后,结果表明,当存在社会影响力时,基于人工智能的可信度指标对虚假信息的检测和传播的影响要大于没有社会影响力时,因为在人们对新闻形成自己的判断之前,这些指标就已提供给人们。最后,我们提出了更好地利用人工智能来打击虚假信息的建议。
作者 周晓燕博士 周晓燕博士领导牛津可持续金融小组的可持续金融绩效主题。她的研究兴趣集中在可持续投资、转型风险和机构股东参与。她在《商业伦理杂志》(FT 50)等期刊上发表文章,并担任《自然气候变化》等多家期刊的审稿人。她获得了 PRI 2019 最佳定量论文奖。 吉雷什·什里马利博士 吉雷什·什里马利博士是牛津可持续金融小组的转型金融研究主管,也是英国财政部于 2022 年成立的英国过渡计划工作组秘书处的技术负责人。他还是伦敦帝国理工学院气候金融与投资中心以及新加坡管理大学新加坡绿色金融中心的访问学者。此前,他曾担任气候政策倡议印度项目主任、可持续金融倡议研究员以及斯坦福大学 Steyer-Taylor 能源政策与金融中心。他曾在约翰霍普金斯大学、米德尔伯里国际研究学院、印度商学院和印度管理学院任教。致谢我们感谢牛津可持续金融小组 (OxSFG) 和桑坦德银行于 2023 年 2 月 28 日和 6 月 13 日主办的研讨会的所有参与者参与了有益的讨论。我们特别感谢袁家海教授、爱德华·贝克和克里斯蒂安·威尔逊审阅我们的讨论文件。这项工作的资金由桑坦德银行提供。我们也感谢桑坦德银行提供的意见
