作为全球父母共同关心的一个主要问题,COVID-19 疫苗安全性在许多国家通常以负面框架向公众传达。然而,COVID-19 疫苗安全框架是否会对父母为孩子接种疫苗产生影响尚不清楚。在这里,我们进行了一项在线调查,对 3,861 名居住在中国大陆的父母进行了便利样本调查,这些父母均超过 18 岁,并且至少有一个 18 岁以下的孩子。父母被随机分配以负面框架(副作用发生率)或正面框架(副作用发生率的倒数)接收有关 COVID-19 疫苗安全性的信息,以比较父母对一系列关于沟通、风险感知、信任、参与和行为意图的问题的反应。我们发现,当收到正面框架的信息时,父母更有可能将疫苗安全视为与政策支持相关,并认为是政府的更高优先事项(p = 0.002)。对于某些特定亚群,正面框架组的父母表现出较低的风险感知和较高的信任度(p < 0.05)。这表明,在特定亚群体的参与度、信任度和风险感知方面,COVID-19 疫苗安全信息的积极框架比消极框架更有效,这可能引发对是否调整当前广泛使用的消极框架的思考。我们的研究结果为政府和医护人员如何策略性地选择 COVID-19 疫苗安全信息的框架设计提供了参考,并对未来在儿童中推广 COVID-19 疫苗接种具有重要意义。
- 推动负责任的 ML 和包容性 AI 框架,以促进 Pinterest 生产系统中算法的公平性、多样性和包容性系统设计。 - 通过红队和持续测量和监控系统,领导严格评估 Pinterest 的 LLM 和其他 GenAI 模型的偏见、安全性和公平性。 - 提高所有用户组、内容部分和产品界面中生产规模 AI 系统的信任度和安全性。这项工作促成了多项成功的产品发布,赢得了用户参与度,在 ACM FAccT 2023 和 WISE 2023 上发表了研究论文,并在 NeurIPS 2022 上发表了教程。
调查的另一个有趣结果是,约 60% 的首席执行官预计生成式人工智能 (GenAI) 能够带来效率效益,从而帮助他们优化一些日常任务。这表明这项新技术现在正接近变革的节点,似乎准备改变商业模式、重新定义工作流程并重塑我们今天所熟知的企业。调查受访者还预计 GenAI 将在短期内为企业带来许多积极影响,包括增加收入(例如通过提高产品质量和客户信任度)和提高效率。这些发现与普华永道 2023 年全球风险调查结果一致,其中 60% 的受访者倾向于将 GenAI 视为机遇而非风险。2
NTT 集团 2021 财年的主要安全相关趋势如下。• 除了未经授权访问 NTT LOGISCO Inc.、利用 NTT DOCOMO INC 服务的攻击以及 Emotet 带来的未经授权的电子邮件发送等网络攻击外,集团还遭受了其他事件,导致电信运营商的信任度恢复,包括 NTT DOCOMO INC. 的大规模系统故障和 NTT WEST 的 SO 中断。与上一年一样,集团还对冒充 NTT FINANCE CORPORATION 和 NTT DOCOMO INC. 的网络钓鱼电子邮件和虚假网站以及可疑的国际电话发出了警报。
• 我们的客户满意度一直很高,我们的净推荐值进一步大幅提升,而且我们广泛的客户满意度计划也得到了许多积极评价。 • 同样,我们的全球员工调查显示,我们的员工总体上参与度和信任度很高,他们强调了我们对质量和价值观的关注,以及我们在灵活性、健康、福祉和多样性、公平和包容方面的举措。我们为自己设定了一个目标,成为卢森堡乃至全世界最具影响力、最具活力和最值得信赖的专业服务合作伙伴。我们认识到,真正的繁荣必须是可持续的,以多元化的服务和工作环境为基础,将我们的员工置于我们所做的一切的核心。
• 第 1 年:调查 (N = 142)、访谈 (N = 168) • 主要发现: – 信任度变化很大 – 最多为中等 • 与 PAS、感知到的益处和性能密切相关 • 测试社区的血统很高,这很有帮助 • 商业案例非常强大 • 人们对 V 形臂章的看法非常积极 – 有助于使系统可预测 • 激活基准率较低。10% – 大量早期错误导致不确定性 • 关键是归因和技术信息 – 大量故事 – 好的和坏的 • 早期系统保存是强大的信任增强器 – 飞行员对 AGCAS 知之甚少 – 很多困惑 – 政策/做法各不相同 • 一些单位在飞行时关闭它,在 BDC/编队飞行时关闭它
未来医疗保健领域的人工智能解决方案需要更全面、多方面的评估方法。加强临床评估和部署的最佳实践包括:(i)采用临床任务的标准定义(例如疾病定义)以实现客观的社区驱动评估;(ii)定义除准确性之外的绩效要素,例如公平性、可用性、可解释性和透明度;(iii)将评估过程细分为越来越复杂的阶段(即评估可行性,然后评估能力、有效性和耐用性);(iv)促进独立第三方评估人员进行外部评估;(v)采用标准化指南报告人工智能评估结果,以提高可重复性、透明度和信任度。
为此,我们首先需要定义“弹性人工智能”的含义。我们想指出的是,技术系统永远不能被视为孤立的、抽象的实体,而必须在其社会背景下被视为社会技术系统;必须理解的是,算法,尤其是人工智能,不仅仅是技术制品(正如 Vermaas 等人 [1] 所定义的“由人类设计的既有功能又有使用计划的物理对象”),而是一个由集体和分配机构塑造的复杂系统 [2]。在我们看来,“弹性人工智能”的概念与诸如接受度和信任度等问题有关,因此与经典的 FAccT 三角(公平性、问责制和透明度)有关:如果满足以下条件,则任何人工智能系统都不能被视为具有弹性
摘要。确保人工智能系统的网络弹性和容错性的问题迫在眉睫。本文提出了基于现有欧洲标准、建议和报告确保人工智能系统网络弹性和容错性的方法。总的来说,使用这些方法和建议将有可能确保人工智能系统的复杂网络弹性和容错性,即数据库(知识库)、整个系统本身的功能。所考虑的方法基于确保数据中心或云作为部署和实施人工智能系统的平台的网络弹性和容错性的方面。使用提出的解决方案将增加人工智能系统的信任度,并允许它们在许多行业中得到更深入的实施。
- 从数据中可以了解到虚假相关性,这通常会妨碍模型的泛化能力并导致糟糕的现实世界结果。 - 失去可调试性和透明度,导致信任度低以及无法修复或改进模型和/或结果。此外,这种缺乏透明度阻碍了这些模型的采用,特别是在受监管的行业,例如银行和金融或医疗保健。 - 代理目标导致模型离线执行(通常是匹配代理指标)与部署在应用程序中时的性能之间存在很大差异。 - 由于模型从业者在有问题的情况下本地调整模型行为的能力下降而失去控制。 - 不良的数据放大反映了与我们的社会规范和原则不一致的偏见。