人工智能(AI)融入医疗保健中,引入了改善医学教育和临床实践的工具。开放式传播是一个例子,提供了实时综合并获得医学文献的访问,尤其是在临床轮换期间的医学生。通过有效搜索临床准则,诊断标准和治疗方法,它可以简化决策和研究准备。其呈现最近出版物和突出显示的较少讨论的治疗能力支持循证学习。尽管有这些优势,但开放态度仍存在局限性。它在针对特定文章,作者或期刊的有针对性的搜索中挣扎,并通过不透明的策展过程进行操作。与Chatgpt相比,它提供了对话互动性,并且以其全面的,CME认可的内容而闻名,OpenIfdidence缺乏某些高级功能。但是,其用户友好的设计和专注于临床证据使其成为有价值的,可访问的替代方案。本社论批判性地研究了Openivence的功能和局限性,并将其与已建立的工具进行了比较。它强调需要更高的透明度,更广泛的证据集成和增强功能,以最大程度地发挥其影响。应对这些挑战可以改善开放式的效用,以支持一种更有效的基于证据的医学教育和临床实践的方法。
在本文中,我们在超薄的磁合金和多层上,在不透明的SI底物上应用桌面,超快,高谐波生成(HHG)来测量元素特异性铁磁共振(FMR)。我们证明了连续的波带宽高达62 GHz,并承诺将其扩展到100 GHz或更高。该实验室规模的仪器使用超快,极端粉状物(EUV)的光检测FMR,光子能量跨越了最相关的杂志元素的M-边缘。射频频率梳子发生器用于产生微波激发,该微波激发本质上同步与EUV脉冲,其正时抖动为1.1 ps或更高。我们应用该系统来测量多层系统以及Ni-FE和Co-FE合金中的动力学。由于该仪器以反射模式运行,因此它是测量和成像磁态动力学和主动设备在桌面上任意基板上的自旋传输的里程碑。较高的带宽还可以测量具有高磁各向异性的材料,以及纳米结构或纳米电视中的铁磁体,抗铁磁铁和短波长(高波形)自旋波。此外,EUV的相干性和短波长将能够使用动态纳米级无透镜成像技术(例如相干差异成像,Ptychography和全息图)扩展这些研究。
人工智能(AI)融入医疗保健中,引入了改善医学教育和临床实践的工具。开放式传播是一个例子,提供了实时综合并获得医学文献的访问,尤其是在临床轮换期间的医学生。通过有效搜索临床准则,诊断标准和治疗方法,它可以简化决策和研究准备。其呈现最近出版物和突出显示的较少讨论的治疗能力支持循证学习。尽管有这些优势,但开放态度仍存在局限性。它在针对特定文章,作者或期刊的有针对性的搜索中挣扎,并通过不透明的策展过程进行操作。与Chatgpt相比,它提供了对话互动性,并且以其全面的,CME认可的内容而闻名,OpenIfdidence缺乏某些高级功能。但是,其用户友好的设计和专注于临床证据使其成为有价值的,可访问的替代方案。本社论批判性地研究了Openivence的功能和局限性,并将其与已建立的工具进行了比较。它强调需要更高的透明度,更广泛的证据集成和增强功能,以最大程度地发挥其影响。应对这些挑战可以改善开放式的效用,以支持一种更有效的基于证据的医学教育和临床实践的方法。
在2015年至2021年之间,Medline中有超过500个出版物涉及AI的急性和急诊护理,其中一半以上在过去的两年内出版。人们认识到,AI技术可能在ED决策,工作流和运营中起重要作用。2–4然而,人们对非结构化且经常不透明的报告,不适当的算法选择,代理偏见,数据隐私和安全性的担忧导致呼吁对涉及AI的研究进行更好的努力和报告。5–9对于执业ED临床医生,这将有助于在模型部署或概括之前对AI研究的解释和理解。 本文的目的是作为临床医生和研究人员在理解与EM有关的常见AI方法方面的入门,并提供解释AI研究的框架。 同伴论文在EM上下文中提供了AI模型构建管道的更详细的利用。5–9对于执业ED临床医生,这将有助于在模型部署或概括之前对AI研究的解释和理解。本文的目的是作为临床医生和研究人员在理解与EM有关的常见AI方法方面的入门,并提供解释AI研究的框架。同伴论文在EM上下文中提供了AI模型构建管道的更详细的利用。
俄亥俄州的能源政策变得越来越复杂,创造了一种环境,即在消费者踏上账单的同时,根深蒂固的特殊利益蓬勃发展。在美国繁荣俄亥俄州的美国人,与七叶树学院合作,我们很自豪地介绍这项研究,这是一项基础资源,是一个相信自由市场解决方案的公民和立法者的基础资源,并且是一种消费者优先的能源政策方法。很长时间以来,俄亥俄州的能源政策一直由裙带关系和不透明的框架主导,这些框架优先考虑特殊利益而不是消费者,从而使俄亥俄州人的成本更高,而俄亥俄州人的选择较少。本报告旨在揭开俄亥俄州的能源环境,阐明了真正的问题,同时为决策者提供了实施大胆,透明改革的工具。通过关注透明度,竞争和创新,我们可以促进范式转变,使俄亥俄州消费者(而不是特殊利益)成为能源决策中心。这项研究既是底漆又是行动呼吁,为俄亥俄州带领能源创新,经济增长和个人自由的未来奠定了基础。一起,我们可以确保俄亥俄州的能源政策不仅为我们的国家提供动力,而且赋予其人民权力。DONOVAN O'NEIL州总监美国繁荣俄亥俄州
我们与图书行业、音乐行业、电影行业、广播和新闻界的合作伙伴一起警告:我们社会的支柱正受到威胁!人工智能生成的产品直接干预社会生活;生成人工智能系统固有的虚假信息和操纵潜力对每个人和整个社会都构成了重大挑战。我们与人工智能专家一样,对此类系统失去控制并呼吁法律约束感到担忧。然而,一些政界人士却表示“无需采取行动”,这让我们感到非常惊讶。最近进入三方会谈的设想中的《欧洲人工智能法案》不仅无视我们的(版权)权利,而且还在以最低要求允许生成人工智能系统,而这些要求甚至无法公平对待此类系统的滥用及其今天已经可以观察到的社会和经济影响。人工智能系统的输出取决于它们所接受的训练输入;其中包括来自作者、表演者和其他版权持有者的文本、图片、视频和其他材料:我们的整个数字资源库都用于培训目的,通常未经同意、不收取报酬,而且并非总是用于合法用途。未经授权使用受保护的培训材料、其不透明的处理以及可预见的用生成性人工智能的输出替代来源,引发了问责、责任和报酬的基本问题,这些问题需要在造成不可逆转的损害之前得到解决。
摘要 许多做出重要决策的人工智能系统都是黑匣子:它们的运作方式甚至对开发人员来说都是不透明的。这是因为它们非常复杂,而且是经过训练而非编程的。缓解黑匣子系统不透明度的努力通常从透明度、可解释性和可解释性的角度进行讨论。然而,对于这些关键概念的含义几乎没有达成一致,这使得很难判断缓解不透明度方法的成功或前景。我主张对这些关键概念进行统一的解释,将理解的概念视为基础。这使得科学哲学和理解认识论的资源能够帮助指导缓解不透明度的努力。这种理解解释的第一个重要好处是,它化解了对事后可解释人工智能 (XAI) 方法的主要原则性反对意见之一。这种“合理化反对意见”认为 XAI 方法提供的只是合理化,而不是真正的解释。这是因为 XAI 方法涉及使用单独的“解释”系统来近似原始黑箱系统。这些解释系统的功能与原始系统完全不同,但 XAI 方法根据解释系统的行为对原始系统进行推断。我认为,如果我们将 XAI 方法视为理想化的科学模型,这种合理化担忧就会消失。理想化的科学模型歪曲了其目标现象,但能够提供对其目标的重要而真实的理解。
摘要 人工智能 (AI) 已在多元化的背景下扩展,它渗透到了我们的社会生活中,是算法决策的重要组成部分。非 AI 专家的最终用户采用 AI 技术,尤其是 AI 支持的设计仍然有限。难以理解、不透明的决策以及使用 AI 的困难成为阻碍这些最终用户采用 AI 技术的障碍。如何基于 AI 技术设计用户体验 (UX) 是一个有趣的探索话题。本文研究了如何使用名为 Smart Service Blueprint Scape (SSBS) 的框架让非 AI 专家最终用户参与 AI 支持应用程序的设计过程,该框架旨在通过映射和翻译基于 UX 的 AI 决策来建立 UX 和 AI 系统之间的桥梁。以荷兰移动服务“stUmobiel”作为设计案例研究。目标是设计一个面向 stUmobiel 最终用户的预订平台。与案例用户共同创造并确保他们了解人工智能设计的决策和服务提供过程对于促进用户采用至关重要。此外,人工智能伦理问题也出现在设计过程中,应该从更广泛的意义上进行讨论。关键词:人工智能、服务设计、伦理、用户体验、智能服务蓝图景观 (SSBS) 框架联系人:李帆埃因霍温理工大学工业设计荷兰,f.li@tue.nl
2022 年 3 月 4 日 AI 研发 RFI 响应团队收件人:Faisal D'Souza NCO,2415 Eisenhower Avenue Alexandria, VA 22314 通过电子邮件:AI-RFI@nitrd.gov 回复:RFI 响应 – 国家人工智能研究与发展战略计划 IEEE-USA 很高兴提交这些建议,以响应 OSTP 对 2022 年国家人工智能研究与发展战略计划更新的评论请求。我们全力支持政府更新和制定全面的国家人工智能战略的努力。这提供了一个机会来更新现有的 2019 年战略,以反映和解决人工智能 (AI) 和自动决策系统 (ADS) 对我们社会实际的、现在更充分实现的影响。AI/ADS 的进步及其在生活、工作和政府各个领域的普及直接影响公民、国内和国家安全以及地缘政治秩序。作为当今社会存在的先决条件,我们都参与、互动并受制于 AI/ADS 流程、数据收集和分析以及这些系统的决策,这些系统通过政府和金融服务、医疗保健和教育等直接影响我们。这些过程及其影响中的许多在人类方面在很大程度上是不透明的,缺乏有意义的选择或控制。尽管存在这种现实,但美国缺乏全面而有凝聚力的联邦 AI/ADS 治理监管框架,并将受益于该框架。
摘要黑匣子算法在医学中的使用引起了学术界的不透明和缺乏可信赖性的关注。关注潜在的偏见,问责制和责任,患者自主权和通过黑匣子算法疏散的信任疏散。这些担忧将认知问题与规范问题联系起来。在本文中,我们概述了黑匣子算法出于认知的原因比许多学者似乎相信的要小。通过概述并非总是需要更多的算法透明度,并且通过解释计算过程对人类的方法论确实是不透明的,我们认为算法的可靠性提供了信任医疗人工智能(AI)的结果的原因。为此,我们解释了如何不需要透明度并支持算法的可靠性的计算可靠性,这证明了将医疗AI的结果信任的信念是合理的。我们还认为,即使结果值得信赖,黑匣子算法仍然存在一些道德问题。因此,从可靠指标中获得合理的知识是必要的,但不足以证明医生采取行动。这意味着需要对可靠算法的结果进行审议,以找出什么是理想的行动。因此,我们认为,这种挑战不应完全驳回黑匣子算法的使用,而应告知这些算法的设计和实施方式。训练医生以获取必要的技能和专业知识,并与医学信息学和数据科学家合作时,黑匣子算法可以有助于改善医疗服务。
