摘要 基于论证的保证案例通常使用图形论证结构来表示和组织,在实践中越来越多地用于向利益相关者(例如监管机构)提供保证,确保系统在可靠性和安全性方面可用于其预期用途。一般而言,全面的系统范围保证论证会汇总大量不同信息,例如安全分析、需求分析、设计、验证和其他工程活动的结果。尽管存在多种保证案例工具,但许多对论证结构的理想操作(例如层次化和模块化抽象、论证模式实例化以及丰富结构化信息的包含/提取)都缺乏自动化支持。为了弥补这一自动化差距,过去四年来,我们一直在 NASA 艾姆斯研究中心开发一套保证案例自动化工具集 AdvoCATE。本文介绍了如何在保证案例论证结构的形式化基础上设计 AdvoCATE,以提供以下独特功能:a) 自动创建和组装保证论证;b) 将形式化方法集成到更广泛的保证论证中;c) 自动模式实例化;d) 分层抽象;e) 查询和视图;f) 论证验证。我们(和我们的同事)已在实际项目中使用 AdvoCATE 来确保无人机系统的安全。
摘要 基于论证的保证案例通常使用图形论证结构来表示和组织,在实践中越来越多地用于向利益相关者(例如监管机构)提供保证,确保系统在可靠性和安全性方面可以用于其预期用途。一般而言,全面的系统范围保证论证会汇总大量不同信息,例如安全分析、需求分析、设计、验证和其他工程活动的结果。尽管存在多种保证案例工具,但许多对论证结构的理想操作(例如层次化和模块化抽象、论证模式实例化以及丰富结构化信息的包含/提取)都缺乏自动化支持。为了弥补这一自动化差距,在过去四年中,我们一直在 NASA 艾姆斯研究中心开发一套保证案例自动化工具 AdvoCATE。本文介绍了如何在保证案例论证结构的形式化基础上设计 AdvoCATE,以提供以下独特功能:a ) 自动创建和组装保证论证,b ) 将形式化方法集成到更广泛的保证论证中,c ) 自动模式实例化,d ) 分层抽象,e ) 查询和视图,以及 f ) 论证验证。我们(和我们的同事)已在实际项目中使用 AdvoCATE 进行安全保证,在
或者想象一下,与一位客户服务人员交谈,他几乎立即了解您的顾虑和感受,并向您提供解决方案和建议,帮助您快速解决手头的问题。无需长时间等待,无需争论,无需误解。
申请人的律师在上诉摘要中提出的论点似乎不适用于本案。目前尚不清楚律师是否将此作为多份文件的模板,或者是否可能错误地将其包含在摘要中。申请人的律师似乎没有错误地包含内容,因为一些不相关的论点确实包含与申请人有关的信息。摘要讨论了第一项要求,然后指出局长的决定“包含误解和误用法律的情况,超出了无害错误的范围,达到了滥用自由裁量权的程度。”摘要描述了两种情况:未提交证据与提交证据不足。在这里,申请人暗示局长在拒绝中的分析属于未提交证据来证明拟议努力的国家重要性的情形。
更具体地说,我们研究现代模拟论证与笛卡尔、贝克莱等西方哲学家先前的论证之间的关系。我们通过探索模拟假设的 NPC 版本和 RPG 版本之间的分歧,探索意识、人工智能和现代多人游戏的边缘。我们探索虚拟现实和脑机接口等现代技术的发展,并探索这些技术如何发展成为理论模拟点、一种特定的技术奇点和一般的技术奇点及其潜在影响的哲学、道德和财务影响。我们研究如何构建我们自己的模拟可能会让我们陷入尴尬的道德境地,包括在硅或其他基质中意识的觉醒,以及作为模拟器或模拟中的伦理问题。
用于证明经典网络信息理论中内界的重要技术工具是所谓的典型典型性引理[1,2]。同样重要的是,但通常不强调的是内部绑定证明中使用的隐式联合和交叉参数。对于量子通道,证明可以承受联合和相交参数的联合典型引理是一个很大的瓶颈。由于这种瓶颈,经典网络信息理论中的许多内部界限迄今无法扩展到量子设置。信息理论中最内在的界限首先是在许多独立和相同分布(IID)的传统环境中证明的。最近,注意力已转移到仅一次仅使用一次经典或量子通道的单发环境中证明内在界限。这是最通用的设置。的目的是证明良好的单发内边界,当局限于渐近IID和渐近非IID(信息频谱)设置时,理想地产生了最著名的内部边界。在一次性环境中,联合和交叉参数的重要性增加,通常需要明确。这是因为在渐近IID设置中经常使用的时间共享技术不适用于一次性设置。换句话说,单次设置迫使我们为多发通道寻找所谓的同时解码器。同时解码器的内部结合分析通常使用联合和相互参数。
人工智能 (AI) 的发展重新开启并重新构建了许多传统的哲学问题,例如什么是理性、推理或自由意志,或者作为人类意味着什么。随着 ChatGPT 技术的最新发展,这些问题涉及公共空间,并引发了一场讨论,特别是关于对话式和生成式人工智能与人类相比的推理能力及其在我们的理性话语中的作用。这些讨论与人工智能生成 (GAI) 的可能性这一主题密切相关。Landgrebe 和 Smith (2022) 最近出版的一本书提出了令人信服的论据,反对 GAI 的可能性以及机器掌握人类语言、社交互动和道德的能力。尽管有这些论点,但人类的想象力方面仍存在一个问题,即感知超出现有的东西,并将人工智能视为人类和社会行为者 (Banks 2019;Nass and Moon 2000),而不管其实际属性和能力或缺乏这些属性和能力。数学和本体论的论证无助于阻止人类将对话式人工智能 (CAI) 视为人类的强烈倾向。CAI 的开发目标是使其看起来像人类,这一事实进一步强化了这种倾向。其结果可能是,从现象学层面和实用主义的角度讲,尽管人工智能缺乏人类属性,但可以承认它掌握了语言,进入了我们的话语实践并成为社会参与者。也许,这是我们在当前版本的 ChatGPT 中已经看到的东西。我认为这种现象需要认真对待。
36 English v. Gen. Elec. Co ., 496 US 72, 79 (1990)(援引 Rice v. Santa Fe Elevator Corp ., 331 US 218, 230 (1947))37 De Canas v. Bica , 424 US 351, 356 (1976)(援引 Florida Lime & Avocado Growers v. Paul , 373 US 132, 142 (1963))。38 ECF No. 21-1,第 14 页,美国制药研究与制造商诉 Liz Murrill ,民事案号 6:23-cv-997 (WD La. 2023 年 7 月 27 日);ECF No. 21-1,第 23-25 页,AstraZeneca Pharmaceuticals LP v. Murrill ,民事案。 No. 6:23-cv-1042 (WD La. 2023 年 8 月 8 日);ECF No. 28-1 第 20-27 页,AbbVie 等诉 Murrill,民事案号 6:23-cv-1307 (WD La. 2023 年 9 月 21 日)。39 Id. 40 Pharmaceutical Research and Manufacturers of America v. Liz Murrill,民事案号 6:23-cv-997 (WD La. 2023 年 7 月 27 日) (ECF No. 21-1 第 14 页)。在此,法院引用了原告 Pharmaceutical Research and Manufacturers of America 的简报,因为该简报似乎包含了其他原告提出的大部分(如果不是全部)论点。PRMA 简报中的论点也反映了其他原告在领域优先权方面的简报中的论点。 41 同上,第 15 页。42 同上,第 14-15 页。