沉浸式计算机生成环境(“元宇宙”)将如何影响数字经济中的服务?虚拟世界的投资增长迅速。然而,这项技术仍未实现完全沉浸式的体验。尽管有夸张的预测,但各种指标显示,过去两年人们的兴趣有所下降。虽然一些用例显示出前景(例如游戏、教育、医疗保健),但其他用例似乎明显是噱头(例如虚拟银行分支机构、土地投机)。如果元宇宙真的成功了,它可能意味着:(i)可贸易部门和非可贸易部门之间的界限变得模糊,(ii)跨境经济一体化程度更高,(iii)对支付服务有新的要求。原则上,零售快速支付系统、零售中央银行数字货币或代币化存款可以设计为支持元宇宙中的服务。为了防止虚拟环境和货币变得支离破碎并被强大的私营公司所主导,公共政策需要支持高效、可互操作的支付,并在数据隐私、数字所有权和消费者保护方面提供明确的标准。
Metzger 等人描述了一个数据处理框架,该框架通过 NEON 的涡流协方差塔和机载测量数据集中的临时示例进行了说明。总体而言,这一技术概念似乎对简化来自不同测量站的特定数据处理步骤的自动化具有潜在价值,但在当前版本的论文中很难认识到更广泛的科学价值。我必须承认,我很失望地发现这些工具的描述支离破碎,科学结果和结论的支持力度很弱。整个分析非常具有描述性,在许多情况下对可能性产生了误导。除了未来的潜在应用之外,几乎没有努力去综合使用该工具可以学到什么。最重要的是,这篇论文没有指定科学目标,甚至没有涉及建模的范围,而这正是该期刊读者的主要兴趣所在。这份手稿似乎需要做很多工作才能使结果和讨论对科学界有用,但在进行重大澄清后,可能值得重新考虑。另一位审稿人已经提供了有关如何实现这一目标的详细指导,我同意他/她的观点。我还有其他顾虑,希望可以在修订中得到解决。
报告介绍了一个案例研究,其中采用过渡研究和多层次视角 (MLP) 框架内的定性研究来讨论挪威氢气生产在 2050 年可持续能源转型中可能发挥的作用。讨论了正在进行的举措和利益相关者对驱动因素和障碍的看法。重点是更广泛的社会政治和市场趋势与国家制度发展之间的相互作用,以及这如何影响氢气生产和部署的范围。定性结果与基于模型的两种过渡情景评估的结果相一致。我们的主要发现是氢气可能是实现国家气候目标的关键。虽然 CCS 天然气制氢具有最大的潜力,但向可再生和更分散的能源系统的转变为电解制氢开辟了新的机会和作用。氢能行业正在发展,但仍然支离破碎,需要国家协调。虽然经济和技术障碍受到了最多的关注,但社会对氢气作为可持续零排放解决方案的接受是一个关键因素。目前,转型正处于关键的转折点。要释放市场潜力,就需要系统思维和更加关注社会技术互动。
摘要 COVID-19 大流行暴露了全球医疗保健系统的脆弱性,并凸显了对人工智能 (AI) 等创新技术驱动解决方案的需求。然而,之前关于该主题的研究有限且支离破碎,导致对其应用的“内容”、“地点”和“方式”以及相关好处和挑战的理解不完整。本研究提出了一个全面的医疗保健 AI 框架,并评估了其在阿联酋医疗保健领域的有效性。它为从分子到人口层面的医疗保健利益相关者提供了有关 AI 应用的宝贵见解。该研究涵盖了从机器学习到计算机视觉所采用的不同计算技术,以及输入到这些技术中的各种类型的数据输入,包括临床、流行病学、位置、行为和基因组数据。此外,该研究强调了人工智能在增强医疗保健的运营、质量相关和社会成果方面的能力,并承认监管政策、技术基础设施、利益相关者合作和创新准备是推动人工智能应用的关键因素。最后,我们强调解决数据隐私、安全、通用性和算法偏差等挑战的重要性。我们的研究结果不仅在疫情期间有意义,还有助于促进制定与人工智能相关的政策干预措施和支持机制,以建立能够抵御未来挑战的弹性医疗保健部门。
在过去三年中,我们对各国的 HGGM 监管框架进行了比较研究,并将研究结果发表在题为《人类生殖系改造与科学权利:国家法律和政策的比较研究》的书中。2 我们邀请了全球 18 个国家的专家撰写论文,详细讨论他们国家如何监管 HGGM。3 我们还发表了一篇文章,讨论欧洲(欧盟和欧洲委员会)以及全球层面的 HGGM 监管情况。我们根据各国先前存在的国际人权义务,发表了对这些监管框架的广泛批判性分析。我们特别关注所谓的“科学权利”(或者更简洁地说,从科学技术进步中受益的权利),以及科学家和保护科学研究的人的权利(所谓的“科学权利”)。在全球层面,这些权利被编纂成《世界人权宣言》 4 和《经济、社会及文化权利国际公约》 5 ;在区域层面,这些权利则被载入众多法律文书 6 。我们不会在此重复这些分析。相反,本文将进一步阐述书中文章中提供的数据,以便进行跨国界的比较。对于书中讨论的每个国家,我们重点介绍了与种系改造有关的基本法定和行政法规以及实质性规定。我们表明,国家法律框架支离破碎、过时,因此不足。最后,我们确定了各国可以采取的步骤,以澄清和现代化其监管框架。
在灾后情况下,政府和非政府组织 (NGO) 努力有效协调救灾工作,旨在及时满足人道主义需求。利用卫星图像、传感器数据和社交媒体等可用数据,以及数据挖掘和大数据分析,可以大大加强灾害管理工作。然而,及时获取这些往往支离破碎、不完整的数据是一项挑战。人工智能 (AI) 技术,包括机器学习、深度学习和自然语言处理,通过加快政府机构、非政府组织和其他机构的响应时间,提供了解决方案。本研究考察了 72 项关于人工智能在灾害管理各个阶段的应用的研究,包括灾后情况的模拟、检测、预测和处理。基于人工智能的系统可以改善早期预警的发布,简化风险沟通,优化救援物流,支持疏散计划,同时还有助于颁发建筑许可证和补助金的决策过程。该分析强调了人工智能在灾害管理所有阶段(从准备和响应到预防/缓解和恢复)的变革潜力,并确定了该领域的未来挑战。总之,该研究强调了人工智能不仅在预测灾害发生和影响区域方面,而且在确定最脆弱的社区和评估灾害响应策略的可行性方面的能力。
摘要 COVID-19 大流行暴露了全球医疗保健系统的脆弱性,并凸显了对人工智能 (AI) 等创新技术驱动解决方案的需求。然而,之前关于该主题的研究有限且支离破碎,导致对其应用的“内容”、“地点”和“方式”以及相关好处和挑战的理解不完整。本研究提出了一个全面的医疗保健 AI 框架,并评估了其在阿联酋医疗保健领域的有效性。它为从分子到人口层面的医疗保健利益相关者提供了有关 AI 应用的宝贵见解。该研究涵盖了从机器学习到计算机视觉所采用的不同计算技术,以及输入到这些技术中的各种类型的数据输入,包括临床、流行病学、位置、行为和基因组数据。此外,该研究强调了人工智能在增强医疗保健的运营、质量相关和社会成果方面的能力,并承认监管政策、技术基础设施、利益相关者合作和创新准备是推动人工智能应用的关键因素。最后,我们强调解决数据隐私、安全、通用性和算法偏差等挑战的重要性。我们的研究结果不仅在疫情期间有意义,还有助于促进制定与人工智能相关的政策干预措施和支持机制,以建立能够抵御未来挑战的弹性医疗保健部门。
摘要。人工智能 (AI) 的最新进展,尤其是生成语言建模方面的进展,有望改变政府。鉴于新 AI 系统的先进功能,至关重要的是,这些系统必须使用标准的操作程序、明确的认知标准嵌入其中,并按照社会的规范期望行事。随后,多个领域的学者开始概念化 AI 应用可能采取的不同形式,强调其潜在的好处和陷阱。然而,文献仍然支离破碎,公共管理和政治学等社会科学学科的研究人员以及快速发展的 AI、ML 和机器人领域的研究人员都在相对孤立地开发概念。尽管有人呼吁将新兴的政府 AI 研究正式化,但缺乏一个平衡的描述,以全面了解将 AI 嵌入公共部门环境的后果所需的理论观点。在这里,我们首先进行综合文献综述,以确定和聚类 AI 多学科研究中经常同时出现的 69 个关键术语,从而统一社会和技术学科的努力。然后,我们基于文献计量分析的结果,提出了三个新的多方面概念,以便以更统一的方式理解和分析基于人工智能的政府系统 (AI-GOV):(1) 操作适应性、(2) 认知一致性和 (3) 规范分歧。最后,我们将这些概念作为 AI-GOV 概念类型学的维度,并将每个概念与新兴的人工智能技术测量标准相联系,以鼓励操作化,促进跨学科对话,并激发那些旨在重新思考人工智能政府的人之间的辩论。
区域条件。政府和 WMCA 于 2023 年 11 月就单一解决方案达成了谅解备忘录 3,其中包括有关当地发展和地方支柱的更多细节。1.3 本报告提供了有关单一解决方案的地方发展和地方功能战略初步发展的信息。2. 单一解决方案 2.1 单一解决方案承认,目前市长联合当局的资金体系支离破碎,过度依赖中央管理的资金,缺乏明确、精简和相称的问责结构。2.2 单一解决方案将在下一次支出审查中设定单一的资本和收入资金制度。通过由 DLUHC 协调的精简、总体、单一问责框架,而不是由不同部门管理的多个框架,该解决方案将提高该地区的自治权、在当地优先考虑决策的能力以及在其自身预算中重新确定优先次序的能力。 2.3 为了就如何投资分配给该地区的单一定居点资金达成一致,该地区已同意制定所谓的“功能性”和“基于地点”的战略。2.4 功能性战略将涵盖整个支出审查期,列出单一定居点每个功能支柱的目标和投资重点。它将阐明如何实现与单一定居点相关的结果(尚未与政府协商)。2.5 有必要制定一项地方发展和地点功能性战略,该战略将涵盖以下活动,这将成为我们为这一单一定居点支柱获得未来下放资金的基础:
摘要 人工智能伦理需要政策制定者、人工智能公司和个人在开发、部署和使用这些技术时采取统一的方法。然而,有时讨论可能会因为不同的治理水平(Schmitt in AI Ethics 1–12, 2021)或因为涉及的价值观、利益相关者和参与者不同(Ryan and Stahl in J Inf Commun Ethics Soc 19:61–86, 2021)而变得支离破碎。最近,这些冲突变得非常明显,例如谷歌解雇人工智能伦理研究员 Timnit Gebru 博士,以及 Facebook 的告密者 Frances Haugen 辞职。每一次失败的背后都是组织的经济和商业利益与员工道德之间的冲突。本文将通过探索该领域的人工智能伦理文献,以及对与人工智能开发人员和从业人员举办的三次研讨会进行定性分析,探讨人工智能组织的伦理与员工价值观之间的紧张关系。本文将讨论常见的伦理和社会紧张关系(例如权力不对称、不信任、社会风险、危害和缺乏透明度),以及如何在实践中避免或减少这些冲突的建议(例如,建立信任、公平分配责任、保护员工的自主权以及鼓励道德培训和实践)。总之,我们建议采取以下步骤来帮助减少人工智能组织内的道德问题:企业内部改进和多样化的道德教育和培训;内部和外部道德审计;建立人工智能道德监察员、人工智能道德审查委员会和人工智能道德监督机构;以及获得值得信赖的人工智能道德举报人组织的访问权限。