人工智能 (AI) 及其子领域机器学习 (ML) 的进步几乎体现在生活的每个领域,包括前沿的健康研究。 1,2 然而,研究论文中描述的健康 AI/ML 系统中只有很小一部分进入临床实践。为了解决这个问题,儿童医院 (SickKids) 和 Vector 人工智能研究所 (Vector) 于 2019 年 10 月 30 日组织了 Vector-SickKids 健康 AI 部署研讨会,166 名临床医生、计算机科学家、政策制定者和医疗保健管理人员参加了会议。目的是展示 AI 从研究实验室走向临床的真实案例。演讲者来自加拿大和美国的各种机构,包括圣迈克尔医院、大学健康网络、滑铁卢大学、安大略公共卫生学院、安大略理工大学、密歇根大学、北加州凯撒医疗机构、约翰霍普金斯大学、宾夕法尼亚大学和杜克大学。每个项目所经历的成功和挑战为新兴的健康 AI 领域提供了宝贵的见解。要求每位发言者准备一个结构化的演讲,涉及以下主题:
社会对人工智能 (AI) 和 AI 系统的依赖日益增加,这要求中高层管理的软件工程 (SE) 主管采取更实用的方法来提高他们在实施 AI 伦理方面的参与度,将道德要求作为其管理实践的一部分。然而,研究表明,在 SE 管理中实施道德要求的大部分工作主要集中在技术开发上,对中高层管理的研究很少。我们通过采访十位芬兰中高层管理的 SE 主管来调查这一点,以了解他们如何考虑和实施道德要求。我们使用欧盟 (EU) 可信 AI 道德指南中的道德要求作为道德要求的参考,并使用敏捷投资组合管理框架来分析实施情况。我们的研究结果表明,隐私和数据治理的道德要求通常被视为法律要求,而没有确定其他道德要求的考虑因素。研究结果还表明,将道德要求视为技术稳健性和安全性是可行的,可以将实施视为风险要求,将社会和环境福祉视为可持续性要求。我们研究了一种使用采用敏捷投资组合管理框架的道德风险要求堆栈来实施道德要求的实用方法。
本文解决了 Debortoli、Nunes 和 Yared (2021) 在 Lucas 和 Stokey (1983,[第 3 节]) 管理政府债务期限结构的建议中发现的一个难题。在 Lucas 和 Stokey 的模型中,一系列政府中的每一届都为政府支出 t G tu 8 t “ 0 和债务偿还票据 tb 0 ,tu 8 t “ 0 的外生联合随机过程提供资金。在时间 0,拉姆齐规划师选择扭曲统一税率过程并可能选择重组债务偿还票据过程 t ˆ b 0 ,tu 8 t “ 0。在时间 t ± 0,延续拉姆齐规划师可以自由地重新设计统一税率过程的延续,并从 t 开始重新安排政府债务;但他们必须尊重他们继承的延续债务偿还票据过程。 Debortoli、Nunes 和 Yared (2021) 构建了一些例子,在这些例子中,初始债务如此之高,以至于拉姆齐计划将税率设定在拉弗曲线的峰值之上,而卢卡斯和斯托基重组政府债务的方式未能激励延续规划者继续执行拉姆齐税收计划。为了为我们扩展卢卡斯和斯托基的可收缩子空间奠定基础,阅读 Aguiar 等人 (2019) 如何将卢卡斯和斯托基 (1983) 的模型与他们的模型进行对比是很有用的:
我们的利益相关者报告发现,行业专业人士看到了社区规模的电池的巨大潜在好处[2]。利益相关者同意,需要进行更多的公共审判来证明福利的运营交付。尽管DNSP拥有的电池试验将需要对当前规则进行豁免,以便将电池用于受监管的网络服务以外的任何事物,但我们的调查表明,这些试验和示威活动可以在当前的规则和法规中进行。在这种情况下,我们不建议开发监管沙箱,以演示社区规模电池模型。,我们将鼓励项目支持者实施与当前规则和法规一致的模型,而不是为这些示威活动开发监管沙箱,而不是花费大量时间和精力,并可以更快地支持对社区规模的电池的采用。我们确实建议项目支持者在必要时寻求相关的豁免,以扩大社区规模的电池运营模型的范围,这些模型将能够为所有能源用户带来福利。
ITF 讨论文件向研究人员和从业人员提供由 ITF 委托或内部进行的经济研究。它们描述了作者的初步结果或正在进行的研究,并发布以促进对 ITF 工作的广泛问题的讨论。本文表达的任何发现、解释和结论均为作者的观点,并不一定反映国际运输论坛或 OECD 的观点。OECD、ITF 和作者均不保证本出版物中包含的任何数据或其他信息的准确性,也不对使用它们造成的任何后果承担任何责任。本文件及其中包含的任何地图均不影响任何领土的地位或主权、国际边界和边界的划定以及任何领土、城市或地区的名称。欢迎对讨论文件发表评论。
自 2019 年以来,加拿大医疗卓越组织 (HEC)(前身为加拿大医疗改善基金会和加拿大患者安全研究所)一直与由患者、数据科学家、实施者和政策制定者组成的专家咨询委员会合作,探索卫生领导者如何支持在卫生部门更广泛地实施人工智能。鉴于 HEC 在变革管理和为卫生领导者提供实施支持方面的专业知识,这被视为加快采用人工智能的关键指导领域。对医院部门的关注是对该领域为采用和实施人工智能做好了更大准备的认可。然而,本报告中的建议和建议也可以为医院部门以外从事人工智能工作的人员提供指导和见解。
摘要 — 随着人工智能 (AI) 的部署正在改变许多领域和行业,人们担心人工智能系统在做出决策和建议时没有充分考虑各种道德方面,例如问责制、可靠性、透明度、可解释性、可争议性、隐私和公平性。虽然最近提出了许多套人工智能伦理原则来承认这些问题,但这些原则是高层的,并没有就如何开发合乎道德和负责任的人工智能系统提供切实的建议。为了深入了解这些原则的可能实施,我们进行了一项实证调查,包括对一群人工智能从业者进行半结构化访谈。突出的发现涵盖了人工智能系统设计和开发的四个方面,调整了软件工程中使用的过程:(i)高级视图,(ii)需求工程,(iii)设计和实施,(iv)部署和操作。