学习科学正在拥抱技术在更好地检测、诊断和推动自我调节学习 (SRL) 方面所能发挥的重要作用。SRL 领域面临着测量 SRL 过程的挑战,以促进我们对多模态数据如何能够不引人注目地捕捉学习者在时间、任务、领域和环境中的认知、元认知、情感和动机状态的理解。本文介绍了一个自我调节学习过程、多模态数据和分析 (SMA) 网格,并将作者 (63 篇论文) 在过去五年中的联合和个人研究映射到网格上。这显示了如何使用多模态数据流来研究 SRL 过程。SMA 网格上的二维空间有助于可视化数据流之间的关系和可能的组合以及 SRL 过程的测量方式。本概述是对当前特刊“利用人工智能 (AI) 推进 SRL 研究”的分析介绍,我们鼓励定位新的研究和未探索的前沿。我们强调需要进行密切和战略性的合作,以加速进展,使用新的跨学科方法来开发教育技术中 SRL 的准确测量。
1977 年 8 月,苏联当场抓住了南非的把柄。苏联卫星观测到南非人在卡拉哈里沙漠钻深井进行地下核试验。苏联决定通知美国,美国情报部门核实了这一证据。1 然而,两个超级大国在是否公开披露南非秘密核活动的证据上存在分歧。美国决策者希望直接与南非接触,并且“不大张旗鼓”。2 相反,苏联决定向全世界宣布南非即将进行核试验。3 在没有这样的宣传的情况下,苏联领导人不相信美国会向南非施压,迫使其不要进行试验。现在南非的不法行为已经公之于众,美国担心如果不履行停止核扩散的承诺,就会被贴上伪君子的标签。美国采取行动来约束南非。因此,苏联政府采取了间接胁迫手段:通过公开证据来催化美国,苏联将目标对准南非,迫使其改变行为。
液压系统如今广泛应用于工业设备和工作机械。其毋庸置疑的优势包括:可通过紧凑的执行器设计获得较高的力或扭矩、可在各种环境条件下工作、经久耐用且可靠,并且防火安全性高。另一方面,与工作流体流动相关的现象,例如湍流、流体动力、喷射角偏差、介质状态变化、边界层的形成、空化等,很难用传统的数学模型来描述。此外,在液压系统控制领域,存在许多与非线性相关的问题,例如死区、滞后或饱和。一开始,对 Scopus 和 Web of Science (WoS) 数据库中索引的出版物进行了分析 [1,2]。搜索了以下短语:“artificial AND intelligence AND hydro”,与所有现有主题领域的文章、会议论文、会议评论、评论和书籍章节相关。首先,出版年份的界限设定在 2013 年至 2023 年之间。截至 2022 年特定年份的出版物数量如图 1 所示。在 2023 年的前五周,Scopus 索引了该领域的 18 份出版物,WoS 索引了 6 份。
摘要 — 在本研究中,我们使用无偏见的情绪检测器人工智能 (AI) 分析了各个国家的幸福水平。迄今为止,研究人员提出了许多可能影响幸福的因素,例如财富、健康和安全。尽管这些因素似乎都相关,但社会学家对于如何解释这些因素并没有明确的共识,而且估算这些公用事业成本的模型包含一些假设。社会科学研究人员一直致力于通过民意调查和不同的统计方法确定社会的幸福水平并探索与之相关的因素。在我们的工作中,通过使用人工智能,我们为这个问题引入了一种不同的、相对公正的方法。通过使用人工智能,我们不对什么会让人快乐做任何假设,而是让人工智能从公开的街道录像中收集人们的面部表情来检测情绪。我们通过互联网上可用的镜头分析了全球八个不同城市的幸福水平,发现各国在幸福感方面没有统计学上的显著差异。索引词——人类幸福、人工智能、机器学习、面部情绪识别、幸福指数
计算机技术的快速发展促进了人工智能教育 (AIED) 应用的实施。AIED 是指在教育环境中使用人工智能 (AI) 技术或应用程序来促进教学、学习或决策。借助人工智能技术,计算机系统可以模拟人类智能进行推理、判断或预测,为学生提供个性化的指导、支持或反馈,并协助教师或决策者做出决策。尽管 AIED 已被确定为计算机和教育领域的主要研究重点,但 AIED 的跨学科性质对具有不同学科背景的研究人员提出了独特的挑战。在本文中,我们从教育需求的角度介绍了 AIED 研究的定义和作用。我们提出了一个框架来展示在不同的学习和教学环境中实施 AIED 的考虑因素。该结构可以帮助指导具有计算机和教育背景的研究人员开展 AIED 研究。我们概述了 AIED 中 10 个可能的研究主题,这些主题对本期刊特别有吸引力。最后,我们描述了我们想要征集的文章类型以及投稿的管理。
人工智能 (AI) 领域的加速发展暗示着需要将“信任”视为设计原则而不是选择。此外,基于人工智能的关键系统的设计,例如航空电子、移动、国防、医疗保健、金融、关键基础设施等,需要证明其可信度。因此,基于人工智能的关键系统必须由不同方(监管机构、开发商、客户、再保险公司和最终用户)出于不同原因从多个维度进行评估。我们可以称之为人工智能验证、监控、评估或审计,但在所有情况下,基本概念都是确保人工智能在其操作设计领域内表现良好。此类评估从开发的早期阶段开始,包括定义系统的规范要求、分析、设计等。信任和可信度评估必须在系统生命周期的每个阶段考虑,包括销售和部署、更新、维护或内部。预计只有在建立可信度的技术措施与使用和开发人工智能的组织的治理和流程规范相结合的情况下,才能在人工智能系统中建立完全的可信度。应用社会科学和人文科学 (SSH) 方法和原则来处理人与人工智能的互动,并帮助在设计和评估中实现(道德)价值观,
摘要。欧盟提出了《人工智能法案》,其中引入了人工智能系统透明度的详细要求。这些要求中的许多可以通过可解释人工智能 (XAI) 领域来解决,但是,在透明度方面,XAI 和该法案之间存在根本区别。该法案将透明度视为支持更广泛价值观的一种手段,例如问责制、人权和可持续创新。相比之下,XAI 将透明度狭隘地视为其本身的目的,专注于解释复杂的算法属性而不考虑社会技术背景。我们将这种差异称为“透明度差距”。如果不能解决透明度差距,XAI 可能会遗留一系列未解决的透明度问题。为了开始弥合这一差距,我们概述并澄清了 XAI 和欧洲法规(该法案和相关的通用数据保护条例 (GDPR))如何看待透明度的基本定义的术语。通过比较 XAI 和法规的不同观点,我们得出了实际工作可以弥合透明度差距的四个轴心:定义透明度的范围、澄清 XAI 的法律地位、解决一致性评估问题以及为数据集建立可解释性。
摘要 将人工智能从实验环境部署到具体应用意味着要考虑环境的社会方面,从而设想人类与计算机之间的交互,以成为行动中的伙伴。本文回顾了有关人机交互的研究计划,包括可解释人工智能 (XAI) 和 HRI/HCI。我们认为,即使词汇和方法不同,这些概念都集中在人工智能必须向与其交互的人类提供其行为的准确心理模型上。这具有不同的含义,具体取决于我们考虑工具/用户交互还是合作交互——尽管合作交互是未来自动驾驶汽车概念的核心,但记录却少得多。从这一观察出发,本文使用关于联合行动的认知科学语料库来提出更精细的认知机制,这些机制已被证明对人类联合行动至关重要,可被视为未来人工智能的认知要求,包括共享任务表示和心理化。最后,提出了交互内容假设来满足已确定的机制,包括人工智能体引出其意图和触发人类合作者对其心理化的能力。
本文探讨了基因战争的前景和潜力。本文借鉴专家访谈和实地考察,首先详细介绍了合成生物学、人工智能和纳米技术的最新和预期创新如何解决武器化、运载和精确度问题,这些问题曾使生物武器变得不切实际。然后,本文探讨了国家和非国家行为者如何开发和使用基因武器,重点是保密问题。是否披露或隐瞒基因战争能力,是战略突袭和威慑之间的权衡。需要威慑的行为者可能会披露基因军事能力。由于唯一可与之匹敌的威慑力量是核武器,无核国家和非国家行为者比核武器国家更有可能公开其基因武器能力。是否秘密或公开使用基因武器的问题也需要权衡。秘密使用会带来战略和战术上的好处,而无限制使用的好处主要是心理上的。恐怖主义、种族灭绝和末日政权和非国家行为者可能会公开使用基因武器,但大多数可能会选择秘密的基因战争。
摘要。近年来,人工intel-ligence生成的内容(AIGC)的迅速增长,随着文本对图像技术的发展,基于AI的图像生成已应用于各种领域。但是,与自然图像相比,AI生成的图像(AIGI)可能具有一些独特的扭曲,因此许多生成的图像对于现实世界应用没有资格。因此,研究AIGIS的主观和客观图像质量评估(IQA)方法很重要且重要。在本文中,为了更好地了解AIGI的人类视觉偏好,建立了AIGC的大规模IQA数据库,该数据库被称为AIGCIQA2023。我们首先使用100个提示,基于6个最先进的文本对图像生成模型生成2000多个图像。基于这些图像,进行了良好的主观实验,以从三个角度评估每个图像的人类视觉偏好,包括质量,真实性和对应关系。最后,基于这个大型数据库,我们进行了一个基准实验,以评估构造的数据库中几个最先进的IQA指标的表现。AIGCIQA2023数据库和基准将发布,以促进未来的研究https://github.com/wangjiarui153/aigciqa2023
