PEARL:除了印象深刻之外,我还不得不重新考虑我的证明,即人们无法从观察性研究中得到任何因果或反事实查询的答案。我没有考虑到训练数据库中的文本本身可能包含因果信息的可能性。程序可以简单地引用文本中的信息,而无需体验任何基础数据。例如,我问了它关于行刑队的问题(来自《为什么之书》第 1 章),例如,如果步枪手 1 没有开枪,囚犯(现已死亡)会发生什么。起初,它偏离了主题,并告诉你,例如,“开枪射击人很危险”。但如果你有时间并正确地提示它,它会更接近正确答案:“如果士兵 1 在收到信号后没有开枪,囚犯仍然可能被士兵 2 杀死,假设他收到并根据同一信号采取行动。”最后,它给出了一个 A+ 答案:“考虑到附加信息,如果每个士兵在收到信号后总是开枪,并且任何一名士兵的射击都足以导致囚犯死亡,那么即使士兵 1 不开枪,囚犯仍然会死亡。这是因为士兵 2 在收到上尉的信号后会开枪
July Cun 1.2,3, 9.10 , Elisha C. Clark 11 , Clai A. Stone 9 , 14.15 , Soania Cohen 14.15 , Genevieve M. Born Quinano-Ruboo 1 , Kevibio 1 , Judea M. Jude Koeh 11 , 11 , Vwalan Vamba 12.16 , 12.16.17 ,17 , 17 , Rossell. 5.13,&& upter Baker Baker是1.2.19,&
heliograph-涂有犹太沥青(石油的沥青衍生物)的锡板;在至少一整天的八个小时暴露后,将盘子取下,并通过用薰衣草和白石油的油混合将窗户的视图从窗户上看见,从而溶解了没有被光硬化的沥青部分。- Harry Ransom Center UT Austin
美国对前哨法案保持沉默,国际社会谴责以色列的举动(JNS.org) 美国对以色列通过一项具有历史意义但备受争议的法案保持沉默,该法案追溯性地使犹太和撒马利亚的定居点合法化。白宫没有发表新的声明,而是立即对《管制法》作出回应,提到了其上周的声明,该声明称“我们不认为定居点的存在会阻碍和平”,但建造新的定居点“可能无助于”以巴和平进程。周一深夜,以色列议会以 60 票对 52 票通过了该法案,追溯性地将位于巴勒斯坦私人土地上的约 4,000 栋房屋合法化,同时还向土地所有者提供补偿。据法新社报道,美国国务院表示,“目前有迹象表明这项立法可能会由以色列相关法院审查,特朗普政府将暂不对该立法发表评论,直至相关法院作出裁决。”
衡量效果有点像开车时遵守速度限制;每个人都公开同意这是个好主意,但似乎没有人这样做。我不相信它像看起来那么难。作为过去二十年在军事和民事领域从事心理战、信息战和战略传播的实践者,我对这个问题进行了长期而深入的思考。阅读了两本关于这个主题的优秀书籍,促使我重新开始研究它。《为什么之书》(由 Judea Pearl 和 Dana Mackenzie 撰写)试图揭穿在衡量效果时很难归因于因果关系的想法。Alnoor Ebrahim 的《衡量社会变革:复杂世界中的绩效和问责制》也探讨了这个问题,以及其他各种问题,例如是否要衡量短期或长期目标。在此,我希望扩大围绕效果测量 (MoE) 现状的讨论。在考虑要衡量哪些目标以及何时衡量它们时,我会参考这些作者。我还讨论了将因果关系归因于传播活动的问题,最后描述了一种目前正在开发的 MoE 方法,我相信该方法将使我们能够定性和定量地评估背景对活动结果的影响。
确保通用人工智能 (AGI) 可靠地避免有害行为是一项关键挑战,尤其是对于具有高度自主性或安全关键领域的系统而言。尽管有各种安全保障建议和极端风险警告,但仍然缺乏平衡人工智能安全性和能力的全面指南。在本立场文件中,我们提出了人工智能-45 法则作为通往可信赖 AGI 的平衡路线图的指导原则,并介绍了可信赖 AGI 的因果阶梯作为实用框架。该框架为当前的人工智能能力和安全性研究提供了系统的分类和层次结构,灵感来自 Judea Pearl 的“因果阶梯”。因果阶梯包含三个核心层:近似对齐层、可干预层和可反射层。这些层解决了 AGI 和当代人工智能系统中安全性和可信赖性的关键挑战。在此框架的基础上,我们定义了五个级别的可信赖 AGI:感知、推理、决策、自主和协作可信赖性。这些级别代表了可信 AGI 的独特而进步的方面。最后,我们提出了一系列潜在的治理措施来支持可信 AGI 的发展。1
一位君王将要从你那里降生,牧养我的百姓。当希律王的时候,耶稣生在犹大的伯利恒。有几位贤士从东方来到耶路撒冷,说:“那生下来作犹太人之王的在哪里呢?我们在东边看见他的星,特来拜他。”希律王听见了,就甚不安,耶路撒冷合城的人也都不安。希律召集了众祭司长和民间的文士,问他们基督将生在何处。他们回答说:“在犹大的伯利恒。因为有先知写着:犹大地的伯利恒啊,你在犹大诸城中并不是最小的。因为有一位君王将要从你那里降生,牧养我以色列民。“于是希律秘密地召集了贤士,向他们打听那颗星出现的时间。他派他们去伯利恒,说:“去仔细寻找那孩子。你们找到后,告诉我,我也好去拜见他。” 他们觐见了国王后就出发了。看哪,他们所看见的那颗星在他们前面升起,直升到孩子所在的地方,停了下来。他们看见那颗星,非常高兴,一进屋就看见了孩子和他的母亲马利亚。他们俯伏拜见他。然后他们打开宝盒,向他献上黄金、乳香和没药作为礼物。他们被梦中警告不要回到希律那里,于是他们从另一条路返回了自己的国家。
法律和技术宾夕法尼亚州,鲁本,算法循环中的人类判断:个人正义和自动决策,监管与治理,第16(2022),197-211111。Engstrom,David Freeman&Gelbach,Jonah B.,法律技术,民事诉讼和对抗性的未来,宾夕法尼亚大学法律评论169(2021),1001-1099。绿色,本,逃脱了公平的不可能:从正式到实体算法公平,哲学与技术35:90(2022),1-32。Huq,Aziz Z.,《人类决定权》,《弗吉尼亚州法律评论》 106(2020),611-688。Huq,Aziz Z.,机器学习状态中的宪法权利,康奈尔法律评论105(2020),1875- 1954年。Kahneman,Daniel,Olivier Sibony&Cass R. Sunstein,噪音:人类判断中的缺陷,Little,Brown Spark,2021。 Klonick,Kate,《新州长:关于在线演讲的人,规则和程序》,《哈佛法律评论评论》 131(2018),1598-1670。 Livermore,Michael A. 和Daniel N. Rockmore,《数据:计算,文本和法律分析的未来》,SFI出版社,2019年。 Pearl,Judea&Dana Mackenzie,《原因:新科学科学:企鹅的新科学》,2019年。 Ryberg,Jesper&Julian V. Roberts(Hrsg。 ),量刑和人工智能,牛津大学出版社,2023年。 Susskind,Richard,在线法院和司法的未来,牛津大学出版社,2021年。 Susskind,理查德,明天的律师:您未来的介绍,3。 aufl。,牛津大学出版社,2023年。 区块链De Filippi,Primavera&Aaron Wright,区块链与法律:法规规则,哈佛大学出版社,2018年。Kahneman,Daniel,Olivier Sibony&Cass R. Sunstein,噪音:人类判断中的缺陷,Little,Brown Spark,2021。Klonick,Kate,《新州长:关于在线演讲的人,规则和程序》,《哈佛法律评论评论》 131(2018),1598-1670。 Livermore,Michael A. 和Daniel N. Rockmore,《数据:计算,文本和法律分析的未来》,SFI出版社,2019年。 Pearl,Judea&Dana Mackenzie,《原因:新科学科学:企鹅的新科学》,2019年。 Ryberg,Jesper&Julian V. Roberts(Hrsg。 ),量刑和人工智能,牛津大学出版社,2023年。 Susskind,Richard,在线法院和司法的未来,牛津大学出版社,2021年。 Susskind,理查德,明天的律师:您未来的介绍,3。 aufl。,牛津大学出版社,2023年。 区块链De Filippi,Primavera&Aaron Wright,区块链与法律:法规规则,哈佛大学出版社,2018年。Klonick,Kate,《新州长:关于在线演讲的人,规则和程序》,《哈佛法律评论评论》 131(2018),1598-1670。Livermore,Michael A.和Daniel N. Rockmore,《数据:计算,文本和法律分析的未来》,SFI出版社,2019年。Pearl,Judea&Dana Mackenzie,《原因:新科学科学:企鹅的新科学》,2019年。Ryberg,Jesper&Julian V. Roberts(Hrsg。),量刑和人工智能,牛津大学出版社,2023年。Susskind,Richard,在线法院和司法的未来,牛津大学出版社,2021年。 Susskind,理查德,明天的律师:您未来的介绍,3。 aufl。,牛津大学出版社,2023年。 区块链De Filippi,Primavera&Aaron Wright,区块链与法律:法规规则,哈佛大学出版社,2018年。Susskind,Richard,在线法院和司法的未来,牛津大学出版社,2021年。Susskind,理查德,明天的律师:您未来的介绍,3。 aufl。,牛津大学出版社,2023年。 区块链De Filippi,Primavera&Aaron Wright,区块链与法律:法规规则,哈佛大学出版社,2018年。Susskind,理查德,明天的律师:您未来的介绍,3。aufl。,牛津大学出版社,2023年。区块链De Filippi,Primavera&Aaron Wright,区块链与法律:法规规则,哈佛大学出版社,2018年。
要在医学领域成功实施 AI 工具,必须认识到人类参与的独特重要性。尽管人们经常将人脑与计算机进行比较,但它们之间存在许多根本区别。单个人脑存储的信息量大致与整个互联网相同 [6, 7]。通常,人脑有大约 2000 亿个神经细胞,通过数万亿个突触连接,这比地球上所有计算机、路由器和互联网连接的数量还要多 [8, 9]。人脑细胞(主要是神经元和突触)既执行数据存储又执行数据处理 [10]。相比之下,计算机将数据存储与数据处理分开,并且必须花费大量能量来移动数据 [10]。成年人的大脑极其节能,仅需要大约 20 瓦的功率 [10, 11]。大脑每秒可以执行百亿亿次数学运算,功耗为 20 瓦,而先进的超级计算机完成相同计算则需要 20 兆瓦,功耗是大脑的百万倍 [11]。人类智能与人工智能截然不同。人类智能可以处理不确定性,并对极少量的数据做出反应 [12]。人类评估新信息的可信度,并将其与积累的智慧相结合 [13]。人类使用心理模型来制定决策,这些模型使我们能够理解和进行抽象 [13, 14]。因果关系是人类决策的一个基本方面,因果知识是人类许多行为的基础,即使我们不了解其潜在机制 [15]。人类对因果关系的推理使人类能够问为什么 [16]。人类对信息的评估包括创建约束、抽象和反事实,这样拥有相同数据的人会得到不同的答案。与人类智能相比,人工智能系统不理解因果关系 [17]。人工智能无法捕捉人类的理解,即如果 x 导致 y,并不意味着 y 导致 x [17]。人工智能无法问为什么 [16]。人工智能无法创建约束或反事实,也无法生成抽象 [14]。人工智能假设相同的输入总是会产生相同的预测 [18]。Judea Pearl 指出,尽管现代深度学习人工智能的成就令人印象深刻,但今天它们可以被描述为“曲线拟合” [17]。
人工智能中的观点和辩论 Alex Rich 4 月 9 日 “从自然愚蠢研究中吸取的人工智能教训” Rich, AS, Gureckis, TM Nat Mach Intell 1, 174–180 (2019) 问:您的观点是什么? 机器学习算法在应用于刑事司法等高风险领域时,可能会表现出有害和偏见。 通常,这些算法会做出曾经留给另一组聪明但有偏见的代理——人类的决策。 我们的文章列出了有关人类学习和决策偏见的文献,并认为了解这些偏见在人类身上产生的原因可以帮助我们防止它们出现在机器中。 问:写这篇文章有什么特定的原因或动机吗? 这篇文章是多种因素汇聚而成的。 在宏观层面,过去两三年来,关于机器学习系统的偏见和负面影响的警钟一直在敲响,需要从多种角度来处理这些问题。从个人角度来说,我正从学术心理学家转变为行业机器学习从业者。这给了我一个独特的视角来回顾过去五十年来对人类偏见的研究如何为这一对话增添色彩。问:你自己对这个话题的看法是如何演变的?花时间研究行业中的机器学习用例让我清楚地认识到,迫切需要实用的工具来识别和防止算法偏见。对于由于选择依存反馈而发生的问题尤其如此,我们将在“观点”的第二部分讨论这个问题。从强化学习和因果推理文献中,有许多潜在的方法可以解决选择依存反馈问题,但缺乏可访问的软件或文字来指导医疗保健等领域的用例,因为在这些领域,经典解决方案可能是不可能的或不道德的。1问:你对 2020 年的人工智能有什么具体的希望吗?令我兴奋的一个趋势是机器学习社区对因果推理和因果关系的兴趣日益浓厚(例如,参见 Judea Pearl 的《为什么之书》)。因果推理不仅可以让人工智能实现更灵活、更像人类的行为,还可以