76% 的企业高管和 57% 的受访者表示,预算问题是 AI 启动和全面整合的主要障碍。 * 责任和安全问题也是经常提到的障碍,收入周期和 IT 领导者将其列为首要问题。大多数提供商报告称,责任、风险、隐私(56%);人员配备(50%);对所提供信息的信任度不足(45%);以及基础设施挑战(43%)是全面整合 AI 的障碍,表明组织在完善其 AI 战略时必须解决的一些关键痛点。
社会问题是最困难的问题之一,这既是其本身的一种趋势,也是其他四个因素共同作用的结果。普华永道用一个名为“ADAPT”的框架来描述社会不稳定性。即,个人在金钱、权力、教育等方面感受到的不对称(Asymmetry);企业和国家不能适应变化而产生的巨大混乱(Disruption);老龄化国家出现的税收短缺和年轻人口较多的国家难以满足就业需求(Age);个人在教育和就业等方面感受到的两极分化(Polarization);以及人们对社会机构信任度的下降(Trust)。社会不稳定
通过信件和短信鼓励符合条件的人去疫苗诊所接种疫苗是一个好的开始,但疫苗接种需要更加容易和广泛地普及。目前在英国,65 岁以上的人、孕妇、患有某些疾病的人、医护人员和学童可以免费接种流感疫苗。该计划应扩大到向全民提供免费流感疫苗接种,并且必须通过提高信任度和降低相关的直接和间接成本来解决接种疫苗的障碍。这有助于实现更高的疫苗覆盖率,并减少流感的发病率和相关的医疗费用。17
由于在线共享的信息量不断增加以及生成式人工智能 (AI) 的作用,人工验证变得非常具有挑战性。因此,人工智能系统用于在线识别虚假信息和深度造假。先前的研究表明,将人工智能与人类专业知识相结合时可以观察到卓越的性能。此外,根据欧盟人工智能法案,在可能影响基本人权(例如言论自由权)的领域使用人工智能系统时,人类监督是不可避免的。因此,人工智能系统需要透明并提供足够的解释才能被理解。已经进行了大量研究以整合可解释性 (XAI) 特征来提高人工智能系统的透明度;然而,它们缺乏以人为本的评估。此外,解释的意义因用户的背景知识和个人因素而异。因此,本研究实施了以人为本的评估方案,以评估人机协作虚假信息检测任务的不同 XAI 特征。在此,客观和主观评价维度(例如性能、感知有用性、可理解性和对 AI 系统的信任度)用于评估不同的 XAI 特征。进行了一项用户研究,总共有 433 名参与者,其中 406 名众包工作者和 27 名记者作为专家参与检测虚假信息。结果表明,自由文本解释有助于提高非专家的表现,但不会影响专家的表现。XAI 特征提高了对 AI 系统的感知有用性、可理解性和信任度,但它们也可能导致众包工作者在 AI 系统的预测错误时盲目信任它。
参与者强烈认为,通过建立客户信任和管理声誉风险,AI 保证可以为组织提供“竞争优势”。一方面,使用保证技术评估 AI 系统可以通过展示对道德价值观(公平、透明等)的遵守来建立对面向消费者的 AI 系统的信任。和/或相关法规/立法。另一方面,使用保证技术还可以帮助识别和减轻与 AI 相关的风险,以管理声誉风险并避免负面宣传。这有助于减轻更大的商业风险,其中引人注目的故障可能会导致客户信任度降低和 AI 系统的采用。
信任和透明度往往齐头并进。了解企业在哪里以及如何纳税在全球范围内,信任在 2023 年变得脆弱,因此,它们在政府收入基础方面发挥的作用仍然是一些最重大的挑战。达成协议以建立可持续的未来作为增长最快的经济体之一,印度对所有人都将依赖于不断提高的信任度。在这种情况下,企业可以发挥重要作用,通过积极提供和程序现代化税收透明度政策的重大转变来重建信任,通过更广泛利益相关者感兴趣的可靠信息和采用具有证据的公开辩论的数字平台
在国家层面,正如《影响 2030》中所述,研究与创新是指基础研究和应用研究、实验开发和创新的全方位。它还认为,公共服务创新是指寻找提供服务和政策响应的新方法,以便为公共服务所服务的人们增加价值。这种价值可以有多种形式 - 更多地获得服务;更高效和有效的干预措施;提高政策响应的透明度和信任度。此外,战略支柱 1“最大限度地发挥研究和创新对经济、社会和环境的影响”的目标是将研究和创新定位于公共政策制定的中心。
自主驾驶或遥控驾驶船舶的引航:操作概念(ConOps)需要考虑从远程操作中心(ROC)操作的引航员,以及如何满足港口当局的安全、法律和环境保护要求;远程引航的可接受性和信任度;关键的安全问题是建立和维护 SA 以及处理紧急情况,例如失去连接或放弃 ROC,导致推力或转向功能丧失;还需要考虑船舶本身、燃料和货物的风险。当要求引航员控制 MASS 时,例如过渡到远程操作以进入港口,需要考虑责任或义务变化方面的潜在法律影响。
机器学习 (ML) 和人工智能 (AI) 研究人员在 AI 的伦理和治理中发挥着重要作用,包括通过他们的工作、倡导和就业选择。然而,这个有影响力的群体的态度还没有得到很好的理解,削弱了我们辨别 AI/ML 研究人员之间共识或分歧的能力。为了检验这些研究人员的观点,我们对在两个顶级 AI/ML 会议上发表论文的人员进行了调查 (N = 524)。我们将这些结果与 2016 年对 AI/ML 研究人员的调查和 2018 年对美国公众的调查结果进行了比较。我们发现 AI/ML 研究人员高度信任国际组织和科学组织,以塑造 AI 的发展和使用以符合公众利益;对大多数西方科技公司的信任度中等;对国家军队、中国科技公司和 Facebook 的信任度较低。虽然受访者绝大多数反对人工智能/机器学习研究人员研究致命自主武器,但他们对研究人工智能其他军事应用(尤其是物流算法)的研究人员的反对程度较低。绝大多数受访者认为应优先考虑人工智能安全研究,多数人认为机器学习机构应进行出版前审查,以评估潜在危害。人工智能/机器学习研究人员更接近技术本身,因此他们有能力突出新风险并开发技术解决方案,因此这些新数据具有广泛的相关性。研究结果应有助于改善研究人员、私营部门高管和政策制定者对人工智能法规、治理框架、指导原则以及国家和国际治理战略的看法。