人工智能中的观点和辩论 Alex Rich 4 月 9 日 “从自然愚蠢研究中吸取的人工智能教训” Rich, AS, Gureckis, TM Nat Mach Intell 1, 174–180 (2019) 问:您的观点是什么? 机器学习算法在应用于刑事司法等高风险领域时,可能会表现出有害和偏见。 通常,这些算法会做出曾经留给另一组聪明但有偏见的代理——人类的决策。 我们的文章列出了有关人类学习和决策偏见的文献,并认为了解这些偏见在人类身上产生的原因可以帮助我们防止它们出现在机器中。 问:写这篇文章有什么特定的原因或动机吗? 这篇文章是多种因素汇聚而成的。 在宏观层面,过去两三年来,关于机器学习系统的偏见和负面影响的警钟一直在敲响,需要从多种角度来处理这些问题。从个人角度来说,我正从学术心理学家转变为行业机器学习从业者。这给了我一个独特的视角来回顾过去五十年来对人类偏见的研究如何为这一对话增添色彩。问:你自己对这个话题的看法是如何演变的?花时间研究行业中的机器学习用例让我清楚地认识到,迫切需要实用的工具来识别和防止算法偏见。对于由于选择依存反馈而发生的问题尤其如此,我们将在“观点”的第二部分讨论这个问题。从强化学习和因果推理文献中,有许多潜在的方法可以解决选择依存反馈问题,但缺乏可访问的软件或文字来指导医疗保健等领域的用例,因为在这些领域,经典解决方案可能是不可能的或不道德的。1问:你对 2020 年的人工智能有什么具体的希望吗?令我兴奋的一个趋势是机器学习社区对因果推理和因果关系的兴趣日益浓厚(例如,参见 Judea Pearl 的《为什么之书》)。因果推理不仅可以让人工智能实现更灵活、更像人类的行为,还可以
尽早降息的理由同样令人信服。虽然总体增长率看起来很健康,但经济中的裂缝越来越明显;更重要的是,随着二十多年来最高利率的滞后效应对经济造成越来越大的损失,这些裂缝将继续加深。房地产市场已经一团糟,低收入家庭难以偿还债务,因为信用卡和汽车贷款的拖欠率正在上升。虽然就业市场每月仍在提供大量就业岗位,但增长来自一个越来越窄的行业群体;政府和医疗保健占6月份20.6万就业岗位增加的四分之三。重要的是,失业率连续第三个月继续走高,从一年前3.6%的低点上升到目前的4.1%,已经比经济衰退之外通常看到的要高得多。
某些国家和国际机构(如欧盟和政府间气候变化专门委员会 (IPCC))将生物质归类为可再生能源。尽管如此,将生物质归类为可再生能源仍存在争议,并且一直是 Montanaro 的 ESG 委员会争论的领域。在本报告中,我们从压缩木屑颗粒生物质的角度总结了有关生物质的争论(忽略农业和牲畜残留物、废物和其他副产品等来源)。IPCC 表示,“只要可持续开发资源并使用高效的生物能源系统,生物能源具有显著的温室气体 (GHG) 减排潜力”。1 然而,这些规定很复杂。必须充分考虑木屑颗粒生产、运输和燃烧对环境的影响。特别是,该行业的供应链需要仔细分析:美国是全球主要的木屑颗粒供应国。一家日本上市公司,隶属于 Better World Fund,Renova 从美国采购木质颗粒,这些地点与英国发电站 Drax 类似,后者已从煤炭转变为生物质能。作为研究的一部分,我们安排了对 Drax 的实地考察,以便更好地了解生物质能市场。本说明分为两部分:1) 生物质能争论;2) Drax 实地考察。
地址:Campus Schöneberg,A 栋,A 室 2.04 Badensche Straße 52,10825 Berlin 请在此处注册:https://www.ipe-berlin.org/veranstaltungen/konferenzen-und-andere- veranstaltungen/growth-regime-workshop-2024/
二十多年来,模块化一直是认知科学界激烈争论的话题。在某些情况下,误解阻碍了概念的进步。本文作者指出了关于模块化的论点,这些论点要么已被抛弃,要么从未被支持模块化思维观点的人所接受。作者回顾了那些旨在破坏模块化的论点,特别关注认知架构、发展、遗传学和进化。作者提出,清晰定义的模块化为指导研究和解决有关个体认知系统和人类进化认知性质的争论提供了一个有用的框架。模块化是生物体在各个组织层面的基本属性;它对于理解思维结构也是必不可少的。
智能代理(IAS)在我们的日常生活中被广泛采用,预计这种趋势将会增加。驾驶环境是可以利用IAS的流行领域之一。在手动驾驶的背景下,车载剂(IVAS)主要帮助驾驶员执行驾驶或与驾驶相关的任务,以免他们分散驾驶情况的注意力[2,3]。根据引入自动车辆(AV)的引入,IVA的重点会变化。如果我们进入AVS的SAE 5级,人们将不受AV的驾驶任务[7]。因此,研究人员开始研究IVDA的使用来增强AVS的用户体验[1,4,5,6]。以前的努力以找出AV中理想形式的IVA形式,这是人们与代理商互动的情况。但是,很可能有两个以上的IAS在真正的驾驶过程中共存,因为汽车中的人们通常具有个人设备(例如智能手机),并且汽车本身可能具有自己的IVA。如果存在两个或多个IAS,则与一对一的相互作用相比,与IAS的相互作用流或逻辑相比将有所不同。在这种情况下,出现了许多研究问题。一些示例如下:
• 发病率的上升是因为人们对发展问题的认识不断提高,而不是环境中的任何问题 • 最初的自闭症理论——患者在某一特定点之前都是正常的,然后发生了一些事情导致发育停止 • 当前的自闭症理论——自闭症是一种复杂的疾病,可能是多因素的,至少有部分遗传成分
我们有幸得到了国内外作家的贡献,他们始终表现出兴趣和动力,将这些知识收集并组织到一个地方。我们感谢大家同意为这本在巴西才刚刚开始对话的书做出贡献。非常高兴能够与已经参与 IAIE 国际辩论的外国作家建立这样的对话:Vivienne Bath、Tim D. Ellemann、Steffen Hindelang、Andreas Moberg、Santosh Pai、Ji Ma 和 Manu Misra。我们还要感谢 Sarah Danzman,尽管她在研究期间是一位对话者,但她未能贡献一章内容,但却为我们提供了与 Sophie Meunier 合作开发的完整 Prism 数据库。我们还要感谢巴西作家卡洛斯·马尔西奥·科森德 (Carlos Márcio Cozendey),他是国际投资体系具体辩论的关键人物。
理解某件事意味着什么?这个问题长期以来一直困扰着哲学家、认知科学家和教育家,他们几乎总是与人类和其他动物有关。然而,随着最近大规模人工智能系统的兴起——尤其是所谓的大型语言模型——人工智能界出现了一场激烈的争论,即现在是否可以说机器理解自然语言,从而理解语言可以描述的物理和社会情况。这场争论不仅仅是学术性的;机器理解我们世界的程度和方式,对我们能多大程度地信任它们驾驶汽车、诊断疾病、照顾老人、教育儿童以及更广泛地在影响人类的任务中表现出稳健和透明的行为有着真正的利害关系。此外,当前的争论表明,在如何思考智能系统的理解方面存在着有趣的分歧,特别是依赖统计相关性的心理模型和依赖因果机制的心理模型之间的对比。直到最近,人工智能研究界对机器理解达成了普遍共识:虽然人工智能系统在许多特定任务中表现出看似智能的行为,但它们并不像人类那样理解它们处理的数据。面部识别软件不理解面部是身体的一部分,不理解面部表情在社交互动中的作用,“面对”不愉快的情况意味着什么,也不理解人类对面部概念化的其他无数方式。同样,语音转文本和机器翻译程序不理解它们处理的语言,自动驾驶系统不理解司机和行人用来避免事故的微妙眼神接触或肢体语言的含义。事实上,这些人工智能系统经常被提及的脆弱性——它们不可预测的错误和缺乏强大的泛化能力——是它们缺乏理解的关键指标 (1)。然而,在过去几年里,一种新型人工智能系统大受欢迎