摘要 — 随着大型语言模型在人工智能 (AI) 中的不断发展,文本生成系统已被证明受到一种通常称为“幻觉”的问题现象的影响。然而,随着人工智能在包括医学在内的各个领域的存在感越来越强,人们对该术语本身的使用产生了担忧。在本研究中,我们进行了系统性回顾,以确定在 14 个数据库中定义“AI 幻觉”的论文。我们展示和分析了所有数据库中获得的定义,根据它们的应用对它们进行分类,并提取每个类别中的要点。我们的结果强调了该术语使用方式缺乏一致性,但也有助于识别文献中的几个替代术语。我们讨论了这些影响,并呼吁更加统一的努力,为一个重要的当代 AI 问题带来一致性,该问题可能对多个领域产生重大影响 1。索引术语 — 人工智能、幻觉、生成式人工智能
也站在这里(比我更优雅地走在这里)是Sandhill起重机。保护主义者阿尔多·利奥波德(Aldo Leopold)观察到的那些庄严的生物“像他们自己历史上闷闷不乐的页面一样站着。”在其他地方,泥炭沉积物的撕裂页面已被切断以供燃料干燥的年龄。早期的罗马人看到了北欧和西欧人民的征服人民实践。泥炭也被用作爱尔兰,苏格兰和北欧的燃料。和泥炭是煤的前体,在地质压力下转化为棕色煤,沥青,沥青煤和无烟煤。
1.什么是人工智能?您听说过它,它很强大,甚至可能具有威胁性。人工智能或“AI”是一个经常使用但很少被理解的术语。我们不知道的东西常常让我们感到害怕,但有时我们也抱有不切实际的希望。对人工智能的大部分普遍看法来自好莱坞电影:人工智能似乎有一个好听的女性声音,让我们相信“她”,直到“她”开始杀死人类,因为不知何故“她”发展出了“她”自己的思想。这通常是大多数娱乐电影的一大亮点,但与我对人工智能的体验和看法几乎没有共同之处。这似乎只是 20 世纪 70 年代对计算机和软件误解的新版本:“他”(当时通常是“他”)这么说,因此一定是真的。“人工智能”这一术语或误称背后的工程真相是一套工具,它可以更好地完成工作或处理我们过去根本无法处理的任务。这些工具本身可能会让人着迷;你也可能担心如果这些工具被错误的人使用,会发生什么;但这些工具本身并不会让我害怕。对于“人工智能”是什么,没有连贯的定义。从最广泛的意义上讲,人工智能涉及对人类智能的研究和模拟,并希望在机器中复制这些过程。人工智能的子分支列表(非详尽)包括:
摘要 人工智能 (AI) 和机器学习 (ML) 技术在医学研究中占据着重要的地位,在创新和开发新技术方面占有重要地位。然而,尽管许多人认为人工智能是一种充满希望和希望的技术——一种可以实现更早、更准确的诊断的技术——但医院对人工智能和机器学习技术的接受度仍然很低。造成这种情况的主要原因是这些技术缺乏透明度,特别是认知透明度,这导致人工智能扰乱或困扰临床环境中既定的知识实践。在本文中,我们描述了一个用于临床环境的人工智能应用程序的开发过程。我们展示了人工智能开发人员、临床医生和生物医学科学家如何密切合作,协商和共同产生认知透明度,从而形成人工智能被接受为认知操作符的环境。本文借鉴与合作研究人员进行的定性研究,开发一种用于早期诊断罕见呼吸系统疾病(肺动脉高压/PH)的 AI 技术,探讨了如何将临床医生和临床科学家纳入 AI 开发人员的协作实践中,以消除透明度问题。我们的研究表明,消除透明度问题发生在与 PH 相关的 AI 开发的三个维度上:查询数据集、构建软件和训练模型。密切合作产生了一种既具有社会性又具有技术性的 AI 应用程序:它整合并铭刻了不同参与者在开发过程中的知识过程。我们认为将这些应用程序称为“人工智能”是一种误称,如果将它们重新定义为社会技术智能的形式,它们将得到更好的开发和实施。
关于医疗保健领域人工智能的讨论引发了人们对治疗关系非人性化的担忧 (1)。依赖“大数据”来指导治疗决策可能会导致忽视无法简化为离散数据元素的经验和价值观。计算机生成的建议可能带有虚假权威,会凌驾于专家的判断之上。然而,对人工智能对临床实践造成破坏性影响的担忧可能更多地反映了营销炒作,而非近期的临床现实。当考虑大数据和机器学习在精神保健领域的实际用途时,人工智能这个词通常是一个误称。大数据和机器学习的一些医疗保健应用可能代表真正的人工智能:计算机算法处理机器生成的数据以自动提供诊断或推荐治疗。例如,美国食品和药物管理局最近批准了一种用于诊断糖尿病视网膜病变的自主人工智能系统 (2)。然而,所谓的人工智能在精神病学中的临床应用通常依赖于人类生成的数据来预测人类的经验或指导人类的行为。例如,作为研究人员,我们可能会使用临床记录来识别首次精神病发作风险较高的年轻人。或者我们可能会使用治疗前临床评估的数据来预测患者在接受特定抑郁症治疗后随后的改善情况。或者我们可能会使用来自人类患者和人类治疗师互动的数据来为自动化治疗计划选择有用的反应。这些例子中的每一个都涉及使用机器学习和大型记录数据库来开发预测模型或决策支持工具。然而,在每种情况下,输入数据和预测结果都反映了人类的经验。中间可能有复杂的数学,但人类是两端的重要参与者。因此,智能实际上不是人工智能。当我们使用临床数据来预测临床结果或指导临床决策时,机器学习依赖于人类过去的评估和决策的结果
虚拟活检这一术语正受到越来越多的关注。自 2015 年以来,搜索引擎 PubMed 中引用该概念的出版物数量翻了一番,并在 2021 年达到了迄今为止的最高水平。这就提出了一个问题:虚拟活检的独特特征是什么,以及它如何与计算机辅助医学的其他进步区分开来。对于乐观主义者来说,这可能是迈向侵入性更小、更加个性化的医学时代的下一步,它将利用功能成像和人工智能 (AI) 的最新进展来生成患者管理决策。对于怀疑论者来说,这个术语可能听起来空洞,就像医学领域围绕人工智能的炒作中的又一个营销短语。最终,虚拟和活检的并置不仅意味着可以为医生的工具箱添加另一种工具,还意味着希望将活检(疾病诊断中的关键程序)从物理转变为虚拟,同时仍然提供至少在传统物理活检水平上的诊断和预后信息,作为参考标准。我们评估了这一愿望的现状,并得出结论,尽管仍然存在障碍,但虚拟活检有望取代物理活检,成为诊断和治疗某些疾病的核心步骤。它的起源是希腊语中的 bios(表示生命)和 opsis(表示视觉),这表明活检使与生物存在相关的信息可供洞察。传统上,这是通过病理学家在显微镜下直接目视检查侵入性检索的组织标本来实现的。然而,虚拟活检这一术语(类似于更常见的液体活检)表明,重要的不是标本的类型或直接的视觉可感知性,而是可以从活检过程中获得的生物学见解的实用性和准确性。有趣的是,术语“虚拟”作为描述模拟的东西,在这里可能被认为是一个误称,因为作为虚拟活检输入的放射图像以与组织学幻灯片相同的方式反映了物理现实。我们规定,虚拟活检作为一种活检程序的有效性,而不是一种软件,取决于它所能提供的医学相关信息的质量和完整性,甚至超过不完善的物理活检参考标准。
最近有人争辩说,低维(甚至是一维)量子系统,将局部电路与局部测量结果混合在一起,可以充当量子记忆[1-7]。如果记录了测量结果的结果,则此过程可以保护非平凡的量子信息。在这里,我们研究了此过程的长期动态,以了解系统最终如何“忘记”,即,是否使用系统来存储量子信息,以及这些测量结果一定如何丢失信息。为了研究这种长时间的动态,我们忽略了空间结构。该系统仅由一个高尺寸n的单个希尔伯特空间组成,n均为n。我们的模型包括交替进行两个不同的步骤:第一,一个单一的演变,然后测量单个信息1,由等级N/ 2投影仪表示。我们还可以选择通过单一结合测量结果,因此可以通过在每个步骤中测量单个信息来描述模型,每次测量基础都会改变。因此,如果我们通过统一u 1演变,则测量投影仪P 1,然后按单位u 2进化,然后测量投影仪P 2,这是等效的,直至总体统一,以测量投影仪u†1 p 1 u 1,然后测量投影仪u†1 u†1 u†1 u†2 p 2 u 2 u 2 u 1。我们通过写下测量结果来跟踪量子轨迹,因此尤其是纯状态总是沿着此类轨迹演变为纯状态。我们考虑两个不同的情况,即我们称“多体”和“自由费米昂”。在多体案例中,被选为随机的单位。术语“多体”有点误称:我们有一些固定的高维希尔伯特空间,也许是通过张紧许多量子的量形成的,因此更好的术语可能是“高维单体”。尽管如此,我们仍然坚持使用多体一词。特别是,人们可能希望可以通过我们的HAAR随机测量值对张量的张量产物的足够深的量子电路进行[8-10]。在自由效率的情况下,希尔伯特空间是费米子的一个小空间,只允许测量为fermion biinears。