• 2009 年:GPU • 2010 年:语音识别取得突破(Dahl 等人,2010 年) • 2012 年:ImageNet 取得突破(Krizhevsky 等人,2012 年) • 2015 年:图像和语音识别取得“超人”成绩 • 2016 年:AlphaGo 在围棋比赛中取得“超人”成绩 • 2022 年:ChatGPT 在不同领域取得“人类水平”的成绩 • 2023 年:具有多模态性的 GPT-4 Turbo 和 Gemini
计算机比你聪明吗?还是你比计算机聪明?这取决于你如何定义“聪明”。近年来,我们开发出的计算机在许多任务上的能力远远超过我们自己。例如,计算机每秒可以执行数千次计算,这意味着它们能比人类更快、更准确地解决一些数学问题。计算机还在国际象棋和围棋比赛中击败了人类世界冠军。但这是否意味着它们比我们聪明?虽然计算机在许多领域都能胜过人类,包括算术、物体识别和某些语言处理方面,但目前还没有任何机器能在所有这些领域与人类的表现相媲美。我们在利用智能适应广泛任务的能力方面仍然是独一无二的。
mansilende015@gmail.com 摘要:人工智能(AI)作为计算机科学的一个分支,试图理解智能的本质,并产生能够以与人类智能相似的方式做出反应的新型智能机器,其研究领域十分广泛,包括机器与深度学习、数据科学、强化学习、数据挖掘、知识发现、知识推理、语音识别、自然语言处理、语言识别、图像识别、计算机视觉、规划、机器人、游戏等。由于深度学习在AI领域的突破性进展,AI几乎成为所有研究领域的热门话题。人们对AI的期望很高,因为最近发生了一系列有关AI的令人瞩目的事件。例如,AI击败了围棋比赛的前人类冠军,而人们曾认为这样的事情需要几十年的时间才能发生。AI在一场受欢迎的智力竞赛节目中战胜了人类。AI在皮肤癌诊断方面的表现达到了皮肤科医生的水平。关键词:机器、识别、强化
企业越来越多地利用人工智能来协助或取代人类任务。然而,人工智能也可以训练人类,使他们变得更好。我们研究人工智能的指导作用如何改善人类在专业围棋比赛中的决策能力,其中人工智能围棋程序 (APG) 出人意料地超越了最优秀的人类选手,超越了人类数千年来积累的最佳知识和技能。为了分离从人工智能学习的效果,我们在 APG 首次公开发布之前和之后比较了人类动作的质量与人工智能的卓越解决方案。我们对 25,033 场比赛中的 750,990 步动作的分析表明,APG 的训练显着提高了玩家的动作质量 - 减少了错误数量和最关键错误的严重程度。这种改进在游戏的早期阶段最为明显,因为此时不确定性较高。此外,年轻玩家比年长玩家受益更多,这表明在从人工智能中学习方面存在代际不平等。
人工智能如何改善人类的决策?回答这个问题很有挑战性,因为很难评估每个决策的质量,也很难理清人工智能对决策的影响。我们研究专业的围棋比赛,这为克服这些挑战提供了一个独特的机会。2016 年,一个人工智能围棋程序 (APG) 意外击败了最优秀的人类选手,超越了人类数千年来积累的最佳知识和技能。为了研究 APG 的影响,我们在 APG 首次公开发布之前和之后将人类的举动与人工智能的卓越解决方案进行了比较。我们对 1,242 名专业选手在 25,033 场比赛中的 750,990 步进行了分析,结果表明,APG 显著提高了选手的举动质量,以每一步获胜概率的变化来衡量。我们还表明,关键机制是减少人为错误的数量和比赛中最关键错误的严重程度。有趣的是,这种改进在游戏的早期阶段最为明显,因为不确定性更高。此外,年轻球员对 APG 更加开放并且能够更好地利用 APG,因此他们比资深球员受益更多,这表明在 AI 的采用和使用方面存在代际不平等。
如果这篇文章的标题是诱饵,那么它可能会这样写:“ChatGPT 表示它不能像人一样值得信任。”然而,就像所有诱饵标题一样,这个标题缺乏重要的细微差别。2022 年 12 月,像世界各地无数的研究人员和用户一样,我们与人工智能聊天机器人 ChatGPT 进行了“互动”,该机器人在第一周就风靡全球,用户超过一百万——ChatGPT(Mollman,2022 年)。根据 Scharth 的说法,ChatGPT 之所以如此令人印象深刻,是因为“ChatGPT 可以构建训练数据中知识的复杂而抽象的表示,并利用这些知识来产生输出。这就是为什么它写出相关内容,而不仅仅是说一些语法正确的废话。”(Scharth,2022 年)。人们对这个大型语言模型的反应是怀疑和担忧的混合(Piper,2022 年;Peterson,2022 年;Biddle,2022 年)。就学术界而言,ChatGPT 是否标志着大学论文的终结(Stokel-Walker,2022 年)还有待观察,但随着人工智能的快速发展,也许我们所有人——教师、研究人员、创作者和开发者——可能很快就会感受到李世石在一场令人紧张的围棋比赛中,在他的人工智能对手 AlphaGo 走第 37 步后所面临的生存焦虑(Metz,2016 年;Shead,2017 年)。但是,随着 ChatGPT 的公开发布,人工智能对我们组织社会的方式的影响再次变得清晰起来。它凸显了许多学者和政策制定者近年来一直在争论的问题的重要性:是什么让人工智能值得信赖?在一次引人入胜的“对话”过程中,我们的目标不是拟人化 ChatGPT(Shanahan 2022 年),而是专注于收集有关 ChatGPT 是否基于其自身分析值得信赖的信息,我们还关注了有关值得信赖的人工智能的更大问题。 1
简介 “人工智能”(AI)一词由科学家约翰·麦卡锡于 1956 年提出。他将人工智能定义为“制造智能机器的科学和工程”。在接下来的几十年里,人们对人工智能的兴趣有高潮也有低谷。 2011年,由于深度学习技术的发展,人工智能再次复兴。 Andrew Ng、Geoffrey Hinton、Yoshua Bengio、Yann LeCun等研究人员也因此推动了算法的智能化。之前被认为不可能的人工智能应用突然变得可行。例如,超级计算机沃森(IBM)肯轻松击败了他的人类对手詹宁斯和布拉德·鲁特,这两位选手曾在电视智力竞赛节目《危险边缘!》中打破纪录,而谷歌则利用人工智能从我们的点击行为中学习,以区分狗和猫。此外,2016 年,谷歌开发的 AlphaGo 在围棋比赛中击败了世界冠军李世石,而我们当时认为围棋只有依靠人类的智慧(和直觉)才能达到高水平。在高等教育领域,人工智能正在全球范围内取得重大进展。高等教育机构在实施人工智能 1 时取得了可衡量的成果。因此,人们对人工智能的作用寄予厚望,例如在教师工作量、个性化学习、数字学习资源的有效性以及对学生表现的切实见解方面2。目前已建造了许多成功的原型。我们现在面临的挑战是扩大这些原型并将其集成到整个机构的系统中 3 。为此,我们必须重新审视当前的决策。我们利用人工智能获得的新数据、分析、技术和服务如果以传统的决策方式应用,将不会有效且可持续。在本次黑客马拉松期间,我们将探索人工智能在当代教育实践中的实际可能性。我们专注于教育中的认知任务的自动化,特别是教师和学生的作用和后果。
人工智能 (AI) 极大地改变了我们所知的世界。机器学习 (ML) 是人工智能的一个分支,其关键进展在于使机器能够从数据中学习。深度学习 (DL) (LeCun、Bengio 和 Hinton,2015) 发挥了核心作用,这是一种基于人工神经网络的技术,旨在有效支持学习。由于 DL 与强化学习 (RL,即代理通过与现实世界交互进行学习并相应地获得奖励或惩罚的概念) 相结合,它已被证明能够提供有时超越人类的表现。一个典型的例子是 AlphaGo 计算机程序成功地在围棋比赛中不断击败世界冠军,同时为成功的游戏策略提供了新的见解。这些突破性的成就让人们对人工智能及其所能实现的目标过度自信,尤其是在短期内。风险投资蜂拥而至人工智能初创企业。人们期待自动驾驶汽车随时出现在我们的道路上。然而,最近发生的一些严重事件已经敲响了警钟。涉及原型自动驾驶汽车的事故已导致人员伤亡(Tesla Deaths,2020 年),这让人们质疑该技术在人机密切互动的潜在危险情况下的使用是否真的准备就绪。令人惊讶的是,这些事故是由于车辆未能执行相对简单的任务造成的,例如物体检测或障碍物跟踪和避让(Hawkins,2019 年)。事实上,在 AI 能够安全地部署到高风险和潜在危险的情况下之前,需要具备更为复杂的功能。对当前 AI 使用的期望可能需要修改。以自动驾驶为例。智能汽车需要实时对人类行为做出可靠的预测,以便预先调整速度和路线,以应对儿童可能突然穿过马路的决定。深度神经网络可以有效地识别流媒体视频中的人类动作,如运动模式(Singh、Saha、Sapienza、Torr 和 Cuzzolin,2017 年)。然而,后者可能具有欺骗性,因为人类可以根据自己的心理过程、想法和动机以及他们周围看到的事物突然改变主意。在我们的例子中,之前在人行道上走向学校的孩子们可能会看到马路对面有一辆冰淇淋车,并决定冲过马路去买冰淇淋。在如此复杂的环境中,没有一个预测系统仅仅基于过去观察到的运动来运作,就不可能准确可靠,也不需要考虑上下文和其他相关主体的性质。另一方面,人类可以预测其他人的未来行为,即使没有运动,只需快速评估相关人员的“类型”和他们周围的场景(例如例如,站在走廊里的老人很可能会决定乘坐电梯,而不是走楼梯)。这表明人工智能需要解决“热”认知问题,比如人的思维是如何受到其情绪状态影响的(Lawrence、Clark、Labuzetta、Sahakian & Vyakarnum,2008 年;Taylor Tavares、Drevets & Sahakian,2003 年)。热认知是指情绪和社会认知,包括心智理论(ToM)。它与“冷”认知形成对比,在“冷”认知中,信息处理与情感无关。社会认知旨在通过研究潜在的认知过程来理解社会现象(即人们与他人打交道的方式)。随着能够表现出一定(有限)智能的人工智能的出现,这一概念需要扩展到人类如何与智能机器(例如航空公司的对话机器人)打交道,反之亦然。
人工智能 (AI) 极大地改变了我们所知的世界。机器学习 (ML) 是人工智能的一个分支,其关键进展在于使机器能够从数据中学习。深度学习 (DL) (LeCun、Bengio 和 Hinton,2015) 发挥了核心作用,这是一种基于人工神经网络的技术,旨在有效支持学习。由于 DL 与强化学习 (RL,即代理通过与现实世界交互进行学习并相应地获得奖励或惩罚的概念) 相结合,它已被证明能够提供有时超越人类的表现。一个典型的例子是 AlphaGo 计算机程序成功地在围棋比赛中不断击败世界冠军,同时为成功的游戏策略提供了新的见解。这些突破性的成就让人们对人工智能及其所能实现的目标过度自信,尤其是在短期内。风险投资蜂拥而至人工智能初创企业。人们期待自动驾驶汽车随时出现在我们的道路上。然而,最近发生的一些严重事件已经敲响了警钟。涉及原型自动驾驶汽车的事故已导致人员伤亡(Tesla Deaths,2020 年),这让人们质疑该技术在人机密切互动的潜在危险情况下的使用是否真的准备就绪。令人惊讶的是,这些事故是由于车辆未能执行相对简单的任务造成的,例如物体检测或障碍物跟踪和避让(Hawkins,2019 年)。事实上,在 AI 能够安全地部署到高风险和潜在危险的情况下之前,需要具备更为复杂的功能。对当前 AI 使用的期望可能需要修改。以自动驾驶为例。智能汽车需要实时对人类行为做出可靠的预测,以便预先调整速度和路线,以应对儿童可能突然穿过马路的决定。深度神经网络可以有效地识别流媒体视频中的人类动作,如运动模式(Singh、Saha、Sapienza、Torr 和 Cuzzolin,2017 年)。然而,后者可能具有欺骗性,因为人类可以根据自己的心理过程、想法和动机以及他们周围看到的事物突然改变主意。在我们的例子中,之前在人行道上走向学校的孩子们可能会看到马路对面有一辆冰淇淋车,并决定冲过马路去买冰淇淋。在如此复杂的环境中,没有一个预测系统仅仅基于过去观察到的运动来运作,就不可能准确可靠,也不需要考虑上下文和其他相关主体的性质。另一方面,人类可以预测其他人的未来行为,即使没有运动,只需快速评估相关人员的“类型”和他们周围的场景(例如例如,站在走廊里的老人很可能会决定乘坐电梯,而不是走楼梯)。这表明人工智能需要解决“热”认知问题,比如人的思维是如何受到其情绪状态影响的(Lawrence、Clark、Labuzetta、Sahakian & Vyakarnum,2008 年;Taylor Tavares、Drevets & Sahakian,2003 年)。热认知是指情绪和社会认知,包括心智理论(ToM)。它与“冷”认知形成对比,在“冷”认知中,信息处理与情感无关。社会认知旨在通过研究潜在的认知过程来理解社会现象(即人们与他人打交道的方式)。随着能够表现出一定(有限)智能的人工智能的出现,这一概念需要扩展到人类如何与智能机器(例如航空公司的对话机器人)打交道,反之亦然。