摘要:根据这个概念,教师浪费了太多的时间和能量来记录出勤情况。参加房间,大声喊叫或在纸上取下来是一种缓慢而直接的方法,可以被黑客入侵。调查结果暗示,可以通过实施由计算机视觉驱动的基于计算机的出勤跟踪系统来解决这些问题。在计算机视觉的帮助下,在学校学习照片可能会更容易。相机,传感器和算法可用于处理和研究视觉数据,例如人的图像。这被称为“计算机视觉”。这将使面部识别技术在出勤管理中使用,从而可以自动跟踪和记录出勤。使用此方法跟踪出勤率,而不是手工完成的传统方法,可提供许多优势。自动出勤管理系统乍一看似乎是一个好主意,因为它们消除了个人需要跟踪出勤的需求,这需要大量时间和精力。此设备提供实时出勤统计信息,使您可以跟踪迟到或提早离开的学生。该方法准确地收集了日常出勤数据,管理员可以利用这些数据来识别和纠正出勤和参与问题。这项研究的主要目的是证明使用计算机视觉跟踪出勤的自动化技术的实用性。关键字:Python; OpenCV和Google API;学生出勤;面部识别该技术可以帮助学生获得更好的分数,如果将其用于使出勤数据易于解释。
作者:Claudio Sarra ∗ 最近出台的一项规定欧盟人工智能协调规则的法规,即《人工智能法案》,其中提出了一项重要要求,即在使用高风险人工智能系统时必须进行人工监督(第 14 条)。这项要求体现了“人机指挥”的方法,确保法律和道德合规。《人工智能法案》旨在补充《通用数据保护条例》(以下简称 GDPR),从而形成一个一致而全面的法律框架。本文重点关注做出决策的人工智能系统,并研究《人工智能法案》的强制性人工监督措施(第 14 条)与 GDPR 关于仅基于自动化处理的决策的规定(第 22 条)的一致性。乍一看,这些规定似乎是互相排斥的。《人工智能法案》规定的强制性人工监督可能会使 GDPR 第 22 条不适用,因为它仅适用于通过自动化处理做出的决策,这意味着决策过程中没有人工参与。然而,第 22 条规定,人工智能系统必须进行强制性人工监督,否则,GDPR 第 22 条将不适用。 GDPR 第 22 条为个人提供了关键保障,例如人为干预权、表达意见的能力以及对决策提出异议的权利。这引发了人们对《人工智能法案》是否会用尽这些保障措施以及它是否能够为人工智能系统做出的决策提供同等保护的疑问。本文旨在分析性地解决这些问题和对 GDPR 第 22 条第 1 款的普通解释进行修订的论点。
量子力学与技术的结合有许多前景,其中量子计算机可能是最引人注目的一个。尽管有这种说法,量子计算机尚未出现。原因是量子力学和技术存在相互竞争的要求。量子计算机的比特,即量子比特,可以同时具有值 | 0 ⟩ 和 | 1 ⟩,而传统计算机的比特要么是 0,要么是 1。这称为叠加。其次,量子比特是纠缠的,这意味着它们的值是相连的。量子计算机的优势在于纠缠和叠加的结合:所有量子比特同时执行复杂的计算,同时它们也同时具有所有可能的值。这使得量子计算机比传统计算机快得多。量子计算机中的量子比特应该用量子力学对象来实现,并且它们应该能够进行不受干扰的相干演化。换句话说,它们应该是轻的、冷的和孤立的。另一方面,硬件实现要求系统足够大,并与测量设备足够强地耦合。这种冲突非常普遍,来自不同物理学领域的各种解决方案都有不同的提案。例如,量子信息可以编码在分子中电子的各种自旋(NMR 方法)[96]、固态电子的自旋 [53] 或捕获离子的内部状态 [15] 中。但还有更多的提案 [44],包括一些乍一看非常奇特的提案,比如基于二维系统中 N 粒子配置拓扑的量子比特 [75, 8]。本篇论文研究了使用气相里德堡原子的状态作为量子比特的想法,这些原子是处于高度激发态的原子。量子计算机需要涉及多个量子位的运算,特别是 XOR 运算,这需要量子位之间的相互作用。相互作用的里德堡原子系统可以执行此任务,并且具有一些独特的优势:
活动 可接受 注意 语法检查 是 多年来,语法检查一直是常见文本编辑器的标准功能。无需披露为此目的使用人工智能的情况。 文本编辑、改写 是 人工智能能够生成甚至广泛的文本修改建议。这样的建议需要批判性评估,因为它们可能会完全改变原意。并非所有科学学科都以相同的程度用于人工智能训练。因此,人工智能可能会提出一篇乍一看似乎合乎逻辑的文本,但在批判性评估中可能会发现它缺乏背景,甚至包含错误。此外,必须始终牢记,撰写技术文本是学生必须练习和掌握的技能。学生应该勤奋,学会如何将自己的想法用文字表达出来。此类人工智能使用情况必须在所用软件列表中披露。有关引用样式建议,请参阅 [6.1] 或 [6.2]。 文献检索 部分 人工智能是寻找灵感和获得主题基本理解的好工具。但是,它不能是唯一的信息来源。以这种方式获得的任何和所有信息都必须经过验证和批判性评估。人工智能工具容易产生“幻觉”(编造事物),可能会使用过时、不可靠或有偏见的信息。此外,搜索信息、批判性地评估这些信息以及找到与未来工作相关的想法是学生需要掌握的关键技能。文本结构部分人工智能能够建议文本的结构,包括划分章节,甚至建议每章的内容。这样的建议需要批判性评估。学生是自己论文的作者。每位作者都对自己作品的内容负责,即:
如果如上所述,认知心理学的主要目标之一是了解正常(完整大脑)人类行为,特别是心理能力,那么认知神经心理学家通过研究受损大脑来实现这一目标,乍一看似乎很奇怪。为了回答为什么他们实际上是从不完整的系统“反向”工作,苏格兰著名哲学家和心理学家肯尼斯·克雷克(Kenneth Craik)的一句简洁的引言非常有用,他是世界上最重要的心理学研究中心之一应用心理学部的首任主任。克雷克说:“对于任何一台制作精良的机器,人们都不知道大多数零件的工作原理——它们运转得越好,我们对它们的意识就越少……只有故障才会引起人们对机器存在的注意”(1943 年,第 84 页)。人类认知系统是一个经过数百万年进化的精密“机器”,虽然我们可能了解我们做事的方式和原因(例如,我们如何计划周末旅行),但对于许多能力(例如,如何设法将这页纸上的黑色墨水转化为对我想说的话的理解)而言,这样的理解是相当困难的。事实上,我们认为毫不费力的一些技能,如看或走路,是最复杂的,以至于最好的人工智能系统也无法模仿它们(Moravec,1988)。虽然认知心理学家试图通过研究解决这一困难,但在某些行为方面,只有当完整的系统出现故障(例如,通过脑损伤)时,才有可能真正感受到复杂性。认知神经心理学家正是从这种观察受损系统的角度来研究记忆、物体识别、面部识别、阅读、解决问题等复杂过程。
Dobble or Spot It! 是一款由 Blue Orange Games 开发的 2 至 8 人游戏。在游戏中,玩家必须找到牌之间共同的符号。游戏包含一副 55 张牌,每张牌上有 8 个符号。每个玩家都会得到一堆相同数量的牌。桌子中间留有一张牌。现在,每个玩家将自己牌堆顶部的牌与桌子中间的牌进行比较。一旦找到匹配的符号,他们就可以丢弃这张牌,这张牌现在将成为桌子中间的新牌。第一个丢弃所有牌的玩家获胜。这个游戏特别有趣,因为没有机会。没有骰子,因为所有牌对都有完全相同数量的匹配符号,即一个,所以没有更好或更差的牌。事实上,乍一看,似乎很难为这个游戏制定策略。相反,它似乎主要关乎快速找到这种配对的才能或能力。该游戏的创意可以追溯到 19 世纪。1850 年,英国圣公会牧师 Thomas Penyngton Kirkman 向《淑女绅士日记》提交了一道题材的数学杂志,这是一本年度娱乐性数学杂志,内容来自业余数学家和专业数学家。题目是:某学校 15 名年轻女生连续 7 天三排出去散步:要求每天让她们排成一排,使得没有两个人会两排并排走路。Dobble 是这道 Kirkman's Schoolgirl 问题的一个变体。[1]本文将表明,一些心理因素会影响快速找到正确的匹配符号。因此,这个游戏并不是完全独立于运气的。另一方面,至少有一种理论上的策略可以在游戏中获得优势:算牌。
本文通过考虑三个仅部分回答的问题来研究技术集群现象。我们首先要问如何定义技术集群——也就是说,成为技术集群需要具备哪些属性?这种划分比乍一看要难,并提出了一些关键问题和争议。我们从当地活动的规模和密度开始,然后延伸到正在开展的工作的前沿性质及其影响经济多个部门的能力。我们通过一些常见指标来说明我们的定义,例如专利、风险投资资金以及研发密集型行业或数字连接职业的就业。我们还从新兴指标(例如高增长创业、人工智能研究人员)和最近衡量全球技术集群的努力中注意到一些有趣的线索。然后,我们询问技术集群如何运作,重点关注超越传统产业集群的特征。毫不奇怪,知识溢出是技术集群中的一股强大力量,最近的研究探讨了知识如何在技术集群中的企业之间传递,以及密度如何影响所创造的创新类型。当技术集群将模块化产品结构与高速劳动力市场相结合时,它们有助于最佳设计的强大扩展。大学、高技能移民和全球生产联系在美国主要中心的运作中也发挥着重要作用。最后,我们转向技术集群的根源,并探究其形成所需的初始成分组合。领先的技术集群远非永久存在,它们经常在新的通用技术出现后出现在新的地方。今天,多伦多作为人工智能集群的快速发展表明硅谷对这一前沿的控制可能有限。然而,尽管政府在许多技术集群的历史中发挥了重要作用,但自上而下的重建硅谷的尝试大多失败了(Lerner 2009)。我们的历史例子表明,地方官员可能更愿意促进已经扎根的新兴产业的扩展,即使是由于偶然的机会,而不是试图从头开始设计一个集群。
今天,当我正要登上去曼哈顿上班的通勤列车时,一位年长的绅士在站台上向我走来,说道:“我注意到了你翻领上的别针。我当时也在场。”这是一枚小小的别针,乍一看像是两面垂直悬挂的美国国旗。七年前,我所在机构的董事长将这枚别针赠送给员工和同事,以纪念一个事件,该事件自此定义了我们的生活和职业,改变了我们的行业,并吸引了我们的国家关注和资源。正如这位绅士的言论所表明的那样,这是一个事件,它继续将陌生人聚集在一起,以纪念和重新承诺保护自由社会所珍视的东西。航空业和政府为确保航空旅行和商业安全而开展的工作现在影响了我们经济的其他行业和商业部门。事实上,安全现在已成为世界各地商业和社会生活的普遍元素。航空专业人士和政府官员面临的挑战是如何在实现这种安全的同时保持行业的活力和我们公民的自由。杰夫·普莱斯和杰弗里·福雷斯特的航空安全详尽文本向我们介绍了民航遭受袭击的历史,这一历史几乎与民航本身一样悠久,同时强调了袭击性质的变化以及我们政府对这些威胁的反应的演变。这本书记录了 2001 年 9 月 11 日恐怖袭击后运输安全监督和监管的重大重组,并让我们详细了解了法律法规、机构和利益相关者以及目前在航空安全方面发挥的作用的操作程序和技术资源。在保护商业航班免受敌对意图方面,我们已经取得了很大成就,时间证明了航空系统和我们国家的弹性。当然,还有更多工作要做,我们将期待那些追随我们的人,也许有些人正在阅读这本书,继续警惕和管理这个伟大的行业。愿这枚象征着世界贸易中心的小小翻领别针,永远提醒我们,2001 年 9 月 11 日,在纽约州纽约市、弗吉尼亚州阿灵顿市和宾夕法尼亚州尚克斯维尔市失去的人们,并激励我们在行使旅行自由和权利时,通过拉近世界的距离,努力追求宽容和理解。
美国数学协会委员会发布的“变革呼吁”(在《变革》中,1991年的呼吁中)乍一看可能仅是关于教师的数学准备,正如其字幕所宣布的那样。,但是两种成分结合在一起,使其更广泛。首先,变化的逻辑源于对所有学生如何学习的洞察力,而不仅限于那些准备成为数学教师的少数人。第二,通话延伸到整个本科课程,因为大多数学生都准备成为中学老师,并与所有其他学生一起参加数学课程。因此,在大学数学的各个方面都呼吁改变预告改革。宣布呼吁变革提供了有关在哪里以及如何开始变更过程的一系列挑战中的第一个。本卷中涵盖的主题是非常多样化的,从学科讨论(例如统计,几何)到课程系统(例如,本科生),从行政问题(例如评估)到政策辩论(例如,多种文化主义)。在这些各种论文的表面之下却属于呼吁变化中的许多基本主题:该指导需要成为一个积极的建设性过程,学生学会学会在数学上进行交流,建立数学模型,并将数学思想与周围的世界联系起来。本卷中的章节不仅在主题上,而且在来源中也有所不同。这些群体是由MAA建立的,是生成和记录有关当前兴趣主题的知情辩论的策略。五章(关于统计,定量素养,几何,环境数学和评估)是电子电子邮件焦点小组的产物。每个小组在主持人的领导下进行了大约两个或三个月的时间,后来根据电子邮件的记录准备了小组的报告。许多章节都包含附录,这些附录有助于提供讨论中的问题的完整记录。另外两个章节在精神上更具新闻作用,每章都是基于电信的访谈和书面文件的报告,该报告在辩论 - 文化主义和大学数学的教育研究的两个领域。最后两章是先前出现在其他更短暂的消息来源中出现的重要MAA报告的重印:1990年的报告挑战了MAA大学数学和美国大学协会(AAC)(AAC),以及1991年《杯赛报道》在本科生上。
过去几年,人工智能 (AI) 和机器学习 (ML) 在地球科学中的应用呈指数级增长。在本文的其余部分,我们将 AI/ML 更笼统地称为 AI。至关重要的是,AI 开发人员必须以合乎道德和负责任的方式创建方法,以免 AI 以可能造成伤害的方式开发和部署。在这项工作中,我们以我们早期的研究 (McGovern 等人,2022) 为基础,该研究展示了 AI 在环境科学和地球科学应用中可能出错的多种方式。在这里,我们特别关注偏见问题,因为它是最近许多关于道德 AI 的工作的关键线索之一(例如,Peng 等人,2021 年;McGovern 等人,2022 年;Balagopalan 等人,2022 年;Almuzaini 等人,2022 年;Buolamwini,2023 年)。偏见被认为是开发合乎道德和负责任的人工智能时必须解决的一个关键问题。它是美国国家标准与技术研究院 (NIST) 在制定可信人工智能标准 (Schwartz 等人,2022 年) 时讨论的关键问题之一,并在新的人工智能行政命令中得到了解决。1 对于地球科学应用而言,考虑偏见相对较新 [参见最近的美国地球物理联盟人工智能指南 (Stall 等人,2023 年)]。有偏见的人工智能模型会以多种方式造成伤害,包括影响人们获得工作、拥有稳定住房等的能力。有关此类影响的示例,请参阅 O'Neil (2016)、Eubanks (2018)、Benjamin (2019) 和 Kantayya (2020)。当带有负面偏见的模型被部署并成为新闻时,它们会削弱公众对人工智能的整体信任。私营企业和政府都已经部署了此类模型。创建和理解值得信赖的人工智能是参与这项工作的每个人的重点,因为他们都是美国国家科学基金会天气、气候和沿海海洋学可信人工智能研究所 (AI2ES) 的成员。我们在这项工作中的总体目标与确保地球科学人工智能值得信赖的目标紧密相关:确保现在开发和部署的模型尽可能没有有害偏见。乍一看,与更广泛的人工智能应用相比,偏见似乎不是地球科学人工智能的问题。最近的研究表明,人工智能可以在气象学、气候、水文学、地震学等各种应用中取得成功