许多最引人瞩目的学校人工智能案例也都是基于狭隘的学习观点。人工智能科学家和公司高管经常引用一项著名的 20 世纪 60 年代的研究,该研究表明一对一辅导比全班教学能产生更好的学生成绩。该研究著名的统计“成就效应”发现被用来支持通过自动化“辅导机器人”进行个性化教学的想法。这也是对教育目的的狭隘看法,即提高个人的可衡量结果。这种关于教育人工智能的观点缺乏对教育更广泛目的的思考,即培养独立的批判性思维、个人成长和积极参与的公民能力。旨在提高个人学习基本水平的机械教学并不适合实现公共教育的这些更广泛的目标和价值。
人工智能 (AI) 领域缺乏多样性是当今人们关注的问题,为克服这一问题,已设计了多项计划,如资助计划和指导计划。然而,没有迹象表明这些计划在短期和长期内对人工智能多样性有何影响。这项工作研究了这一特定背景下的多样性概念,并提出了一组人工智能科学事件的多样性指标 (即指数)。这些指标旨在量化人工智能领域的多样性并监测其发展。我们从性别、地理位置和业务 (理解为学术界与工业界的存在) 的角度考虑多样性。我们为会议的不同社区计算这些指标:作者、主题演讲者和组织委员会。根据这些组成部分,我们为每个人工智能事件计算出一个总结的多样性指标。我们评估了最近一系列主要人工智能会议的拟议指数,并讨论了它们的价值和局限性。关键词:多样性、人工智能、多样性指标、性别。
11/2023 GEORGIA技术研究所EECS新星研讨会10/2023 Simons Institute在加利福尼亚大学,伯克利分校,伯克利大学概率巡回赛和逻辑工作室10/2023加利福尼亚大学,圣克鲁斯大学,圣克鲁斯大学统计研究小组07/2023 Amagon Science 07/2023 ZHEJIANS CACCICANID 3 Stuttgart-RWTH-UCLA研讨会02/2023 Amazon和UCLA人类和人工智能科学枢纽09/2022 IBM Research - Almaden Lab Lab可扩展知识智能小组11/2021 Microsoft Research New England Research New England Research New England Research New England Lab Machine学习研讨会04/2021 YAHOO!研究可扩展的机器学习小组04/2021艾伦·图灵研究所以数据为中心的工程研讨会
- 联合组织者,米兰理工大学 (IT) 人工智能科学计算机模拟研讨会,2018 年 11 月 22-23 日。 - PC 成员,HaPoP4 第四届编程历史与哲学研讨会,2018 年 3 月 23 日,英国牛津。 - 联合组织者,计算机仿真方法暑期学校,HLRS 斯图加特(德国),2017 年 9 月 25-29 日。 - PC 成员,第 7 届直觉模态逻辑及应用研讨会(IMLA),与 ESSLLI 2017 共同举办,图卢兹(法国),2017 年 7 月 17-28 日。 - PC 成员 S4CIP17:第 2 届关键基础设施保护安全与安保研讨会,与 IEEE EuroS&P 共同举办:第 2 届欧洲安全与隐私研讨会(2017 年 4 月 26-28 日),巴黎。 -PC 成员,HaPoC4 会议,2017 年 10 月 4-7 日,布尔诺,捷克。
最近,许多对人工智能科学感兴趣的主要公司和组织都为自动驾驶汽车开发了工作原型。尽管自动驾驶汽车行业的重要性,制造公司的数量已增加到35多家公司,包括Lucid,General Motors,Toyota,Apple,Google,Google,Intel,Audi和BMW。W,特斯拉,Uber,Ford等。自动驾驶汽车的重要性在于它们在没有人类互动的情况下提供用户和商品的潜力。他们可以使用智能算法提供更安全,更高效和方便的运输解决方案。在车辆中对自主权的追求刺激了汽车制造商,技术公司和研究人员之间的合作,从而在机器学习,计算机视觉和传感技术方面取得了重大进展。随着这些创新的不断发展,自动驾驶汽车不仅可以重塑城市规划,交通管理和社区流动性的更广泛方面[1,2]。根据世界卫生组织(WHO)的说法,每年在世界范围内大约有130万人死于车祸,超过
人工智能科学方面的许多经典著作(主要是 Simon、Langley 及其合作者 3,但最近也有 Schmidt & Lipson、4 Udrescu & Tegmark 5 等人的作品)都集中在简单问题上。对于 Simon 和 Langley 来说,这种方法以心理学论点为前提,即科学认知本质上与常规问题解决相同,只是应用于一组不同的(有时更具挑战性的)问题。因此,他们开发了模拟人类解决问题的算法,并将其应用于科学发现。Chalmers、French 和 Hofstadter 6 批评了这种方法,因为它赋予算法一种问题的表示,而这种表示已经具有最终理论所需的基本原语。换句话说,它回避了表示问题:原语从何而来,我们如何知道我们是否拥有正确的原语?西蒙(与波普尔相反)坚持认为科学发现存在逻辑,但他的逻辑实际上是一种科学问题解决(即优化)的逻辑,而不是问题创造意义上的发现。后者涉及表征学习,但也涉及更深层次的东西,正如我在下面所论证的那样。
人工智能和生物智能科学之间的共生关系日益密切:神经原理启发了新的智能机器,而这些机器又被用来推进我们对大脑的理论理解。为了促进生物和人工智能研究人员之间的进一步合作,我们推出了 2025 年版 Algonauts 项目挑战赛:人类大脑如何理解多模态电影 (https://algonautsproject.com/)。与 Courtois 神经元建模项目 (CNeuroMod) 合作,本届比赛旨在通过在迄今为止最大的电影观看 fMRI 反应数据集上进行训练,推出新一代多模态且远超其训练分布的大脑编码模型。2025 年挑战赛面向所有人开放,通过公共排行榜提供透明、直接可比的结果,排行榜在每次提交后自动更新,以促进快速模型评估和指导开发。挑战赛将在 2025 年认知计算神经科学 (CCN) 会议上以获奖模型结束。我们欢迎有兴趣与 Algonauts 项目合作的研究人员,为未来的挑战贡献想法和数据集。
人们认识到,人工智能 (AI) 的一般形式体现为自主人工智能 (AAI) [1–3],其基础是当代智能科学 [4–12] 和智能数学 (IM) [13–22]。AAI 通过从在某些领域训练的低级数据驱动学习机器获取认知知识来产生集体智慧。AAI 探索了通用人工智能和自主系统如何根据大脑的分层智能模型 (HIM) [1,2] 从反射性、命令性、自适应性、自主性和认知智能模仿大脑,从而学习超越数据回归的思考和推理。它涉及并强调通过使用粒计算的基础、实践和算法来构建复杂系统的理论观点 [23–26]。未来一代先进的 AAI 系统将能够实现基于数据驱动的人工智能前端成果的脑启发式认知计算机,这些成果由认知知识学习和 IM 理论支持。 AAI 不仅将扩展人类的知识 [27–29],而且还将以前所未有的速度和范围增强人类的智能 [4,5,22,30–33]。
本研究的目的是探讨人工智能中的“行动”和“代理”概念。它使用形而上学的行动和代理概念作为认识论工具来批判人工智能中的“行动”和“代理”概念。因此,在研究行动和代理本身的本质和性质,以及它们如何在人工智能语言和科学中运用时,既采用了形而上学分析,也采用了认知分析。人工智能科学和认知科学的出现,以及人工智能在无人驾驶汽车和专家系统等代理生产中的技术应用,提出了人工智能代理的道德、伦理和/或法律责任问题。这再次强调了关于行动和代理概念的哲学论述的重要性,在当代知识论述中,这些概念现在被视为自然科学认识能力范围内的现象。本文认为,人工智能系统不具备也不可能拥有自由意志和自主权,因此无法承担道德和伦理责任。因此,本文建议对人工智能的责任问题做出社会政治回应。各国或国际社会有责任制定和颁布政策,确定谁对人工智能执行的行为负责。