任务和类型 要实现抽象的视觉推理解决方案,需要在算法(80%)和实现(20%)层面克服多项挑战。这些挑战包括开发新颖的视觉感知网络、符号推理引擎及其交互。我们诚邀学生申请就这一激动人心的新主题开展硕士论文工作。所开展的工作可能涵盖高级算法开发,直至在新兴硬件平台上实现高效实现。它还涉及与 IBM 研究部门的几位研究人员的互动,他们专注于该项目的各个方面。理想的候选人应具有多学科背景、强大的数学能力和编程技能。具备机器学习和人工智能方面的先验知识将是一个加分项。
在当今的信息时代,我们不断追求更高的生产力。毫不奇怪,我们正朝着人工智能增强型劳动力的方向发展,我们由人工智能助手增强,并大规模地相互协作(以及他们的人工智能助手)。在人类的背景下,人类语言足以描述和协调我们与他人的意图(和相应的行动)。然而,这在人机背景下显然是不够的。为了实现这一点,跨不同人类和机器网络的通信至关重要。为了实现这一目标,我们的研究范围涵盖并提出了一种基于类型理论(数学中符号逻辑的一个分支)的类型理论框架和语言,以实现人类和人工智能助手网络内的协作。虽然人机协作或人机协作的想法并不新鲜,但据我们所知,我们是第一批提出使用类型理论来协调和描述人机协作的人之一。在我们提出的工作中,我们定义了一组基本的类型理论规则和抽象函数 Group 和 Assign,以实现 AI 增强劳动力的意图和实现的类型理论描述、组合和协调。
我们预计会产生连锁反应,例如人工智能的发展以及这些发现在精神病学和人机交互中的应用。 3.演讲摘要:构建能够重现人类认知功能并参考整个大脑神经回路的软件在认知科学和神经科学等人文科学以及人工智能和机器人技术等工程应用中具有很高的价值。然而,构成设计此类软件基础的神经科学知识庞大而复杂,因此很难根据特定个人的能力进行设计。此外,为了适当地反映脑科学在认知功能方面的发现,有必要适当调整必要的解剖描述粒度。东京大学医学研究生院神经病学系的客座研究员 Hiroshi Yamakawa 开发了大脑参考架构(BRA,注 1)数据格式,该格式提供了实施此类软件时的规范信息以及使用它的开发方法。标准化。该方法为描述解剖结构的粒度提供了指导,并提供了一种用于累积和共享根据结构描述设计的计算函数的假设作为数据的方法。如果这种方法论促进BRA格式数据的积累和共享,有望促进脑型软件的开发和利用。 4.演讲详情: 【研究背景】自人工智能领域诞生以来,梦想就是实现具有类人通用性的智能,但这一目标尚未实现。在深度学习发展的2010年代,主要通过结合机器学习设备来实现它的期望很高。然而,组装各种计算设备的设计空间巨大,通过反复试验来构建并不容易。自2014年以来,全脑架构计划(Whole Brain Architecture Initiative)推动了全脑架构方法(Whole Brain Architecture Approach),通过“学习全脑的架构来创建类人的通用人工智能(工程)”来限制设计空间。已经是非盈利组织了。然而,一开始并不清楚如何根据现有的神经科学知识构建类脑软件。然而,多年来,三大挑战已经变得显而易见。首先,我们是脑科学和软件开发方面的专家。
具有学习能力是一种结果,雨果奖得主 Ted Chiang 在他的故事“软件对象的生命周期”中很好地描述了这一点。这可能符合不少人工智能研究人员的希望。作为一个优越的实体——优越于我们,因为它比人类具有更少的认知限制,可以获得更多的知识和更好的推理能力。这个想法可能会吓到人们,因为他们担心这样的人工智能对人类没有“同理心”。为了控制人工智能,我们希望“理解”它的工作原理,并在我们不同意其操作原则时改变它,这也是我们对可解释和负责任的人工智能感兴趣的原因之一。这是设计周期中的一个重要部分,有助于按照我们想要的方式开发系统。但如果将人类和人工智能视为对立面,这可能无法充分体现两者实力的具体情况。1972 年,Michie (pp.332) 写道:“当代国际象棋程序的‘蛮力’能力带来了一种有趣的可能性,那就是引入一种新的‘咨询象棋’,其中合作方是人与机器。人类玩家将使用该程序对自己直觉选择的变体进行广泛而棘手的前向分析……”。为了应对社会和科学中越来越复杂和越来越多的挑战,我们需要人类和人工智能之间建立这种合作伙伴关系。我们现在需要评估人类和人工智能可以做得更好的事情,并专注于此,以免浪费宝贵的资源。例如,在需要道德考虑和同理心的情况下,大多数人更喜欢人类做出决定。我们希望人类能够考虑案例的具体情况,富有同情心,而不仅仅是应用“一般规则”。在常识推理方面,人类仍然优于人工智能系统。一方面,我们的人类直觉(见上文)通常被视为典型的人类直觉,但另一方面,可能只是在处理数百个类似的例子并根据它们做出假设的基础上形成的。还有许多其他特征需要考虑,但它们都回到了哲学和心理学问题:是什么定义了我们作为人类?需要在人工智能和心理学的交叉点进行更多研究,以确定和比较人类和人工系统的潜力——避免“社会心理责任分散”。我们需要评估我们拥有什么以及人工智能系统最有潜力做什么,以便合作应对未来的新挑战。
摘要 人工智能 (AI) 应用已被引入人道主义行动,以帮助应对该领域面临的重大挑战。本文重点介绍聊天机器人,它被认为是一种有效的方法,可以改善与受影响社区的沟通并提高对受影响社区的责任感。聊天机器人与其他人道主义人工智能应用(如生物识别、卫星成像、预测模型和数据可视化)通常被理解为“人工智能造福社会”这一更广泛现象的一部分。本文对人道主义和批判算法研究进行了去殖民化批判,重点关注人道主义和人工智能背后的权力不对称。本文询问聊天机器人作为“人工智能造福社会”的典范,是否会在全球背景下重现不平等。基于一项包括对七组利益相关者进行访谈的混合方法研究,分析发现人道主义聊天机器人并不能满足“智能”等要求。然而,人工智能应用仍然会产生巨大的影响。除了与错误信息和数据保护相关的风险之外,聊天机器人还将沟通简化为最简单的工具形式,从而导致受影响社区与援助机构之间的脱节。从数据中提取价值和使用未经测试的技术进行实验加剧了这种脱节。通过反映设计者的价值观并在其程序化交互中主张欧洲中心主义价值观,聊天机器人再现了权力的殖民性。本文的结论是,“人工智能造福人类”是一种“技术魅力”,它重塑了人道主义的殖民遗产,同时也阻碍了权力动态的发挥。
非人类人道主义:当人工智能的善举变成坏事时 Mirca Madianou 伦敦大学金史密斯学院 2018 年,有超过 1.68 亿人需要人道主义援助,同时有超过 6900 万人成为难民,人道主义部门面临着重大挑战。人工智能 (AI) 应用可以成为人道主义危机的潜在解决方案的提议受到了热烈欢迎。这是“人工智能用于社会公益”大趋势的一部分,也是“数字人道主义”更广泛发展的一部分,“数字人道主义”指的是公共和私营部门为应对人道主义紧急情况而使用数字创新和数据。聊天机器人、声称可以预测未来流行病或人口流动的预测分析和建模以及依赖于采用机器学习算法的先进神经网络的生物识别技术,都是在援助行动中越来越受欢迎的例子。本文建立了一个跨学科框架,将殖民和非殖民理论、人道主义和发展的批判性探究、批判性算法研究以及对人工智能的社会技术理解结合在一起。人道主义在这里被理解为一种复杂的现象:不仅仅是通常定义的“减少痛苦的必要性”(Calhoun,2008),而且是一种行业、一种话语和一种源于 19 世纪和 20 世纪殖民主义的历史现象(Fassin,2012;Lester & Dussart,2014)。人工智能同样是一个多面现象:不仅仅是基于先进计算和机器学习算法的技术创新,而且是一个行业以及关于技术的特定话语。人工智能只能与数据和算法一起理解——这三者是不可分割的,因为人工智能依赖于机器学习算法,而机器学习算法是特定数据集的产物。鉴于“大数据”本质上是不完整的,且具有本体论和认识论的局限性(Crawford & Finn,2014),人工智能应用会重现并可能放大大型数据集中发现的现有偏见(Benjamin,2019;Eubanks,2018;Noble,2018 等)。
摘要。机器学习研究界非常关注算法中的偏见,并已确定了其不同的表现形式。训练样本中的偏见被认为是机器学习中偏见的潜在来源。它可以由定义训练集的人类专家引入。随着机器学习技术应用于极光分类,识别和解决专家注入偏见的潜在来源非常重要。在一项正在进行的研究中,13 947 张极光图像被手动分类,分类之间存在显著差异。这个大型数据集允许识别其中一些偏差,特别是那些源于分类过程的人体工程学的偏差。本文提出的这些发现作为提高训练数据完整性的清单,不仅适用于专家分类,也适用于众包公民科学项目。由于机器学习技术在极光研究中的应用相对较新,因此在偏差成为训练数据语料库中普遍存在的问题之前,识别和解决偏差非常重要。
深度学习的最新进展主要基于“大数据用于小任务”范式,在该范式下,大量数据用于训练单个狭窄任务的分类器。在本文中,我们呼吁进行一次彻底颠覆这一范式的转变。具体而言,我们提出了“小数据用于大任务”范式,其中单个人工智能 (AI) 系统面临发展“常识”的挑战,使其能够用很少的训练数据解决各种任务。我们通过回顾综合了机器和人类视觉方面的最新突破的常识模型来说明这一新范式的潜在力量。我们将功能性、物理性、意图、因果关系和效用 (FPICU) 确定为具有类似人类常识的认知 AI 的五个核心领域。当将 FPICU 视为一个统一的概念时,它关注的是“为什么”和“如何”的问题,超越了理解视觉的主流“什么”和“哪里”框架。它们在像素方面是不可见的,但却推动了视觉场景的创建、维护和发展。因此,我们将它们称为视觉的“暗物质”。正如我们的宇宙不能仅通过研究可观测物质来理解一样,我们认为,如果不研究 FPICU,就无法理解视觉。我们展示了如何观察和应用 FPICU 来解决各种具有挑战性的任务,包括工具使用、规划、效用推理和社会学习,从而展示了这种观点在开发具有人类常识的认知 AI 系统方面的强大作用。总之,我们认为下一代 AI 必须采用“暗”的人类常识来解决新任务。
