美国斯坦福大学 尽管动物飞行已有 3 亿年的历史,但人类对飞行的认真思考却只有几百年的历史,可以追溯到列奥纳多·达·芬奇 1,而人类成功飞行只是在过去 110 年内实现的。附图 7.1-7.4 对此进行了总结。在某种程度上,这与计算的历史相似。对计算的认真思考可以追溯到帕斯卡和莱布尼茨。虽然巴贝奇在 19 世纪曾试图制造一台可运行的计算机,但成功的电子计算机最终在 40 年代才实现,这几乎与第一架成功的喷气式飞机的开发同时发生。图 7.5-7.8 总结了计算机的早期历史。表 7.1 和 7.2 总结了超级计算机和微处理器发展的最新进展。尽管到 30 年代,飞机设计已经达到相当先进的水平,例如 DC-3(道格拉斯商用 3)和喷火式战斗机(图 7.2),但高速飞机的设计需要全新的复杂程度。这导致了工程、数学和计算的融合,如图 7.9 所示。
尽管动物飞行已有 3 亿年的历史,但对人类飞行的认真思考却只有几百年的历史,可以追溯到列奥纳多·达·芬奇 1,而人类成功飞行仅在过去 110 年内实现。附图 7.1-7.4 对此进行了总结。在某种程度上,这与计算的历史相似。对计算的认真思考可以追溯到帕斯卡和莱布尼茨。虽然巴贝奇在 19 世纪曾试图制造一台可用的计算机,但成功的电子计算机最终在 40 年代才实现,几乎与第一架成功的喷气式飞机的发展同时发生。图 7.5-7.8 总结了计算机的早期历史。表 7.1 和 7.2 总结了超级计算机和微处理器开发的最新进展。尽管到 30 年代,飞机设计已达到相当先进的水平,例如 DC-3(道格拉斯商用 3)和喷火式战斗机(图 7.2),但高速飞机的设计需要全新的复杂程度。这导致了工程、数学和计算的融合,如图 7.9 所示。
如果有人倾向于这种特定的同一性解释,让我们假设我们给了他他的解释。假设同一性是英语中名称之间的关系。我将引入一种称为“schmidentity”(不是英语单词)的人工关系,我现在规定它只存在于对象和自身之间。那么,西塞罗是否与塔利是schmidentical的问题就出现了,如果确实出现了,那么对于这个陈述,将存在与在原始身份陈述的情况下所认为的相同的问题,即给出这是名称之间关系的信念。如果有人认真思考这个问题,我想他会明白,因此,对于它最初要解决的问题,他最初的身份解释可能不是必要的,也可能是不可能的,因此应该放弃它,而身份应该被理解为事物和自身之间的关系。这种手段可以用于许多哲学问题。'1
许多人为支持完成这份白皮书付出了艰辛的努力。这份白皮书包含了大量有关各州地方实践的信息,我非常感谢各机构各州行政人员多年来一直为儿童的健康和安全而努力的时间和开放态度。这份白皮书也从美国卫生与公众服务部许多同事的建议和认真思考中受益匪浅。儿童和家庭管理局的 Linda Smith 及其团队成员 Katherine Beckman 和 Richard Gonzalez 从一开始就帮助塑造了这份白皮书。启蒙办公室的 Adia Brown 也在制定这份白皮书的内容方面提供了大量支持。ASPE 的几位同事在本工作的各个阶段提供了深思熟虑的反馈意见,包括 Jennifer Burnszynski、Laura Radel、Lindsey Hutchison、Sharon Wolfe、Kimberly Burgess、Nina Chien 和 Kirby Chow。这份白皮书也从 Taryn Morrissey 和 Richard Fiene 的认真审查中受益匪浅。
这次演讲原本是为了 1981 年在 Endicott House 举办的物理与计算会议 40 周年而准备的,所以我认为应该从 1981 年开始。当时我是加州理工学院的一名大四学生,费曼准备在 Endicott House 会议 [13] 上发表主题演讲的时候我肯定在场,那是人们第一次认真思考量子计算。我在加州理工学院的时候并没有听说过这个,事实上,直到很晚我才看到费曼的论文。但我想提一下我在加州理工学院听到的他的另一场演讲,那场演讲表明他当时正在思考物理学基础问题。费曼的演讲是关于负概率的。在演讲开始时,他解释说他一直在研究贝尔定理,该定理表明量子物理不可能是局部现实的隐变量理论。这意味着,任何对量子力学的解释要么需要非局域性,要么需要非现实性(这里的局域性意味着信息不能比光传播得更快,而现实性意味着你可以测量的东西对应于粒子的具体属性)。费曼解释说,他所做的就是仔细研究证明贝尔定理的假设,看看是否存在任何隐藏的假设。事实上,他找到了一个——假设所有概率都在 0 到 1 之间。他推断,如果概率可以小于 0 或大于 1,那么也许有办法解决 EPR 悖论,但当你计算任何你可以实际观察到的概率时,计算会将这些不切实际的概率相加,得到一个介于 0 和 1 之间的结果。这并不像乍一听那么离谱——谐振子的维格纳函数就是这样表现的,费曼对此进行了评论。他继续展示了他关于负概率的一些发现;我不太记得这部分内容了。早在 1964 年的一系列讲座中 [12],费曼就说过
执行摘要 国家人工智能战略 (NAS) 是一份通常由政府制定的文件,其中阐述了政府对人工智能 (AI) 的广泛战略方针,包括与 AI 相关的特定重点领域和将开展的活动。在此过程中,NAS 试图协调政府政策,以最大限度地提高经济和社会的潜在利益,同时最大限度地降低潜在成本。自 2017 年以来,已有 40 多个国家和区域政府间组织发布了这些战略,还有更多的国家正在制定中。本报告的目的是了解迄今为止人权如何(或尚未)被纳入 NAS,确定区域层面的新兴趋势,并为未来如何纳入人权提供建议。最近 NAS 数量的增加反映了许多国家的政府开始认真思考如何利用人工智能带来的经济和社会利益,并在该技术的全球市场上保持竞争力。至关重要的是,在各国制定战略的同时,它们还应建立一种方法,确保这种创新不会以侵犯人权为代价。人权在国家人工智能战略中的重要性 根据国际人权法,各国有义务保护其领土和管辖范围内所有人的人权,使其免受侵犯,无论是由于其自身政策或做法,还是由于企业或其他个人等第三方的行为。人权考虑适用于政府政策和实践的所有领域,包括政府和社会其他实体使用的人工智能政策和人工智能应用。国家人工智能战略代表着政府(或政府集团)如何处理人工智能的全面路线图。这包括如何监管人工智能,如何支持人工智能领域的创新,以及如何应对人工智能对人们生活和劳动力的影响。随着改善人工智能培训或开发新技术的战略的实施,它可能会在没有充分解决与侵犯人权有关的风险的情况下实现。因此,国家人工智能战略必须阐明如何确保保护人权。尽管在制定人工智能政策时考虑人权至关重要,但迄今为止,很少有国家人工智能战略深入研究这项技术的人权影响。对于一些国家的政府来说,这可能是因为他们在制定政策时并没有将保护人权放在首位。一些政府确实将人权放在首位,但当与政府对人工智能的其他目标形成鲜明对比时,他们可能会发现很难概述保护人权的方法,例如增强经济或地缘政治竞争力。还有一些人可能只是不知道在这个政策领域创建一个尊重权利的 NAS 会是什么样子。然而,国家保护人权的义务不会因为不明确或不方便而消失。一些人提出了人工智能治理的新道德框架。在某些情况下,这是试图完全规避人权框架,或规避政府认为不方便的部分。在其他情况下,这是试图超越人权框架,甚至采取更多的保护措施。至关重要的是要注意,没有什么可以阻止政府在人工智能治理中超越人权框架所保护的范围。然而,有令人信服的理由使用现有的人权