摘要这项研究是人工智能虚拟教练(AI-VT)项目的一部分,该项目旨在创建一个可以通过机器学习从文本中识别用户技能的系统。AI-VT是一种基于病例的推理学习支持系统可以生成专门适合用户需求的自定义练习列表。要达到此结果,必须优化第一个建议的练习的相关性,以帮助系统创建个性化的用户配置文件。为了解决此问题,该项目旨在包括初步测试阶段。作为通用工具,AI-VT被设计为适应任何学习领域。AI-VT的最新应用是在计算机科学领域,特别是在算法学习的基础上。AI-VT可以并且在其他学科中也将很有用。 使用Keras API和Tensorflow框架开发,该基于人工智能的工具涵盖了监督的学习环境,多标签文本分类技术和深层神经网络。 本文介绍并比较了在计算机编程和算法的背景下对两个不同数据集测试的不同模型的性能水平。 关键字:算法学习,深度学习,个性化学习,学生锻炼分析,文本分类,自然语言处理。AI-VT可以并且在其他学科中也将很有用。使用Keras API和Tensorflow框架开发,该基于人工智能的工具涵盖了监督的学习环境,多标签文本分类技术和深层神经网络。本文介绍并比较了在计算机编程和算法的背景下对两个不同数据集测试的不同模型的性能水平。关键字:算法学习,深度学习,个性化学习,学生锻炼分析,文本分类,自然语言处理。
神经系统中的单脉冲电刺激,通常称为皮层间诱发电位 (CCEP) 测量,是了解大脑区域如何相互作用的重要技术。在用相隔几秒钟的短暂电流脉冲刺激一个大脑区域的同时,测量植入在一个大脑区域的电极的电压。从历史上看,研究人员曾尝试通过目视检查来了解诱发电压多相偏转的意义,但还没有出现通用工具来了解它们的形状或用数学方法描述它们。我们描述并说明了一种参数化大脑刺激数据的新技术,其中使用半标准化点积将电压响应轨迹投影到彼此中。点积中包含的刺激时间点的长度会有所不同,以获得结构意义的时间分布,并且分布的峰值唯一地标识了响应的持续时间。使用线性核 PCA,可在此持续时间内获得典型响应形状,然后将单次试验轨迹参数化为具有残差项的典型形状的投影。通过量化交叉投影幅度、响应持续时间、典型形状投影幅度、信噪比、解释方差和统计显著性,这种参数化允许直接比较来自不同大脑区域的不同轨迹形状。通过交叉投影幅度子分布中的异常值,可以自动识别并拒绝伪造试验。这种我们称之为“典型响应参数化”(CRP)的技术大大简化了 CCEP 形状的研究,并且还可以应用于涉及事件触发数据的其他广泛设置中。
将机械振荡器用激光冷却到其运动基态是量子计量、模拟和计算领域的一个持续研究方向[1-4]。特别是,将单个原子定位到远低于光波长(“Lamb-Dicke”机制)是实现原子系统高保真量子控制的先决条件[1,5]。在大的捕获离子晶体中,量子纠缠门利用离子的集体运动[6,7]。这种运动必须在基态附近制备,冷却过程与耦合到环境的加热相竞争[8,9]。因此,开发新方法来实现所有运动模式的高带宽和快速冷却至关重要,这些运动模式用作量子信息处理的量子总线。解析边带冷却(RSC)是冷却机械振荡器的通用工具,对于捕获离子,它是冷却到基态的标准方法[1,10-12]。然而,RSC 时间通常随着振荡器的总质量或链中捕获离子的数量线性增长。通过实施具有单离子寻址的并行 RSC 策略,可以改善大型链的这种缩放比例 [13] 。捕获离子和原子的电磁诱导透明 (EIT) 冷却是另一种众所周知的基态冷却方法 [14 – 20] 。它利用三能级 Λ 系统中的量子干涉 [21] 来创建针对原子运动量身定制的可调窄光谱特征,以实现高效冷却。应用于捕获离子,EIT 冷却允许在很大一部分运动光谱上同时进行基态冷却,而无需单离子寻址 [22 – 24] 。EIT 冷却在简单的三能级系统之外的扩展已经激发了一些理论 [25 – 27] 和实验 [28 – 30] 研究。这种扩展对于量子
在人类对科学知识的探索中,经验证据是通过视觉感知收集的。计算机视觉跟踪在揭示我们所生活的世界中存在的复杂运动模式方面发挥着重要作用。多目标跟踪算法提供了有关群体和个体群体成员如何在三维空间中移动的新信息。它们使我们能够深入研究移动群体中个体之间的关系。这些可能是拥挤的人行道上行人的互动、显微镜下的活细胞或从洞穴中大量出现的蝙蝠。能够跟踪行人对于城市规划很重要;细胞相互作用的分析支持生物材料设计研究;蝙蝠和鸟类飞行的研究可以指导飞机工程。我们受到这些众多应用的启发,开始考虑将单目标跟踪系统推进到多目标跟踪系统所需的关键组件——数据关联。最一般意义上的数据关联是将有关新观察到的对象的信息与先前观察到的有关它们的信息进行匹配的过程。这些信息可能是关于它们的身份、位置或轨迹。数据关联算法搜索优化某些匹配标准并受物理条件影响的匹配。因此,它们可以表述为解决“约束优化问题”——在存在这些变量的约束的情况下优化某些变量的目标函数的问题。因此,数据关联方法具有强大的数学基础,是计算机视觉研究人员宝贵的通用工具。本书是数据关联方法的教程,适用于计算机视觉领域的学生和专家。我们描述了基本的研究问题,回顾了当前的技术水平,并介绍了一些最近开发的方法。本书涵盖了二维和三维的多目标跟踪。我们考虑了两种成像场景,涉及单个摄像机或具有重叠视野的多个摄像机,并且需要跨时间和跨视图的数据关联方法。除了将新测量结果与已建立的轨迹相匹配的方法外,我们还描述了匹配轨迹段(也称为轨迹小段)的方法。最后,我们讨论了未来研究的激动人心的方向。本书介绍了数据关联的原理性应用,以解决两个有趣的任务:第一,分析自由飞行动物群体的运动;第二,重建行人群体的运动。
课程描述 科目简介 四年制本科生课程 CLD9001 科技与文化变迁 (3学分) 本课程介绍基本框架,以提高学生对科技与文化变迁之间复杂关系的理解。本课程强调科技的社会文化观点以及科技发展的文化影响,重点关注以下问题:科技如何塑造我们的文化生活,科技产品在此过程中获得什么意义?这些意义如何在特定的历史和社会背景下产生和传播?文化因素是否影响科技发展,如果是,如何影响? CLD9002 了解社会和经济指标 (3学分) 本课程向学生介绍国际上用于衡量和比较不同社会社会经济状况的主要社会和经济指标的性质、测量方法和局限性。在学习世界各地常用的指标后,学生将运用这些指标来评估香港的社会和经济发展。 CLD9003 现代社会统计学 (3 学分) 著名英国作家和历史学家 HG 威尔斯在 100 多年前就指出,“统计思维终有一天会成为高效公民的必备素质,就像阅读能力一样。”现代社会变得如此复杂,公民越来越需要拥有一系列的分析技能。本课程将通过使用经济学、商业、心理学、社会学和政治学等领域的现实世界案例,帮助学生培养统计思维和推理能力。例如,日托会滋生欺凌吗?你的生活方式健康吗?谁会从减税中受益?富人会越来越富吗?我们比父母更聪明吗?本课程将解决这些问题,以说明统计研究的“用户友好”方法。本课程专为非统计学专业的学生设计。 CLD9004 当今世界的数学素养 (3 学分) 赫尔曼·外尔 (1885-1955) 说过:“数学为所有智力活动设定了客观真理的标准,科学和技术见证了数学的实际用途。除了语言和音乐之外,数学是人类思想自由创造力的主要表现形式之一,也是通过理论构建来理解世界的通用工具。因此,数学必须仍然是我们必须教授的知识和能力、我们必须传承给下一代的文化的重要组成部分。” 本课程强调数学在现代社会中的普遍性、相关性和实用性。现实世界的例子,例如邮递员和推销员的旅行计划、投票方法和策略、社会选择、选举和货币的时间价值,将向非专业人士介绍当代数学思维。所涉及的数学技术通过动手应用进行教授。这门课程专为非数学专业设计。CLD9005 色彩科学与数字应用 (3 学分) (从 2022-23 年开始删除) 本课程介绍了一种理解颜色的科学方法以及掌握颜色的当前数字技术。除了分析颜色的理论和工具基础外,还强调数字色彩技术在摄影和出版等领域的实际应用。学生还将获得相关软件和设备的技能。
课程描述 科目简介 四年制本科生课程 CLD9001 科技与文化变迁 (3学分) 本课程介绍基本框架,以提高学生对科技与文化变迁之间复杂关系的理解。本课程强调科技的社会文化观点以及科技发展的文化影响,重点关注以下问题:科技如何塑造我们的文化生活,科技产品在此过程中获得什么意义?这些意义如何在特定的历史和社会背景下产生和传播?文化因素是否影响科技发展,如果是,如何影响? CLD9002 了解社会和经济指标 (3学分) 本课程向学生介绍国际上用于衡量和比较不同社会社会经济状况的主要社会和经济指标的性质、测量方法和局限性。在学习世界各地常用的指标后,学生将运用这些指标来评估香港的社会和经济发展。 CLD9003 现代社会统计学 (3 学分) 著名英国作家和历史学家 HG 威尔斯在 100 多年前就指出,“统计思维终有一天会成为高效公民的必备素质,就像阅读能力一样。”现代社会变得如此复杂,公民越来越需要拥有一系列的分析技能。本课程将通过使用经济学、商业、心理学、社会学和政治学等领域的现实世界案例,帮助学生培养统计思维和推理能力。例如,日托会滋生欺凌吗?你的生活方式健康吗?谁会从减税中受益?富人会越来越富吗?我们比父母更聪明吗?本课程将解决这些问题,以说明统计研究的“用户友好”方法。本课程专为非统计学专业的学生设计。 CLD9004 当今世界的数学素养 (3 学分) 赫尔曼·外尔 (1885-1955) 说过:“数学为所有智力活动设定了客观真理的标准,科学和技术见证了数学的实际用途。除了语言和音乐之外,数学是人类思想自由创造力的主要表现形式之一,也是通过理论构建来理解世界的通用工具。因此,数学必须仍然是我们必须教授的知识和能力、我们必须传承给下一代的文化的重要组成部分。” 本课程强调数学在现代社会中的普遍性、相关性和实用性。现实世界的例子,例如邮递员和推销员的旅行计划、投票方法和策略、社会选择、选举和货币的时间价值,将向非专业人士介绍当代数学思维。所涉及的数学技术通过动手应用进行教授。这门课程专为非数学专业设计。CLD9005 色彩科学与数字应用 (3 学分) (从 2022-23 年开始删除) 本课程介绍了一种理解颜色的科学方法以及掌握颜色的当前数字技术。除了分析颜色的理论和工具基础外,还强调数字色彩技术在摄影和出版等领域的实际应用。学生还将获得相关软件和设备的技能。
扩散概率模型 扩散概率模型是一类潜在变量模型,常用于图像生成等各种任务(Ho 等人,2020 年)。正式而言,扩散概率模型通过对数据点在潜在空间中扩散的方式进行建模来捕获图像数据,这是受统计物理学启发的。具体来说,它们通常使用经过变分推理训练的马尔可夫链,然后逆转扩散过程以生成自然图像。一个值得注意的变体是稳定扩散(Rombach 等人,2022 年)。扩散概率模型也用于 DALL-E 和 Midjourney 等商业系统。生成对抗网络 GAN 是一类具有自定义对抗学习目标的神经网络架构(Goodfellow 等人,2014 年)。GAN 由两个以零和博弈形式相互竞争的神经网络组成,从而生成特定分布的样本。正式来说,第一个网络 G 称为生成器,用于生成候选样本。第二个网络 D 称为鉴别器,用于评估候选样本来自期望分布的可能性。得益于对抗性学习目标,生成器学习从潜在空间映射到感兴趣的数据分布,而鉴别器则将生成器生成的候选样本与真实数据分布区分开来(见图 2)。(大型) 语言模型 (大型) 语言模型 (LLM) 是指用于建模和生成文本数据的神经网络,通常结合了三个特征。首先,语言模型使用大规模、顺序神经网络(例如,具有注意力机制的 Transformer)。其次,神经网络通过自我监督进行预训练,其中辅助任务旨在学习自然语言的表示而不存在过度拟合的风险(例如,下一个单词预测)。第三,预训练利用大规模文本数据集(例如,维基百科,甚至多语言数据集)。最终,语言模型可以由从业者使用针对特定任务(例如,问答、自然语言生成)的自定义数据集进行微调。最近,语言模型已经发展成为所谓的 LLM,它结合了数十亿个参数。大规模 LLM 的突出例子是 BERT(Devlin 等人,2018 年)和 GPT-3(Brown 等人,2020 年),分别具有 ∼ 3.4 亿和 ∼ 1750 亿个参数。提示是语言模型的特定输入(例如,“这部电影很精彩。从人类反馈中进行强化学习 RLHF 从人类反馈中学习顺序任务(例如聊天对话)。与传统强化学习不同,RLHF 直接从人类反馈中训练所谓的奖励模型,然后将该模型用作奖励函数来优化策略,该策略通过数据高效且稳健的算法进行优化(Ziegler 等人,2019 年)。RLHF 用于 ChatGPT(OpenAI,2022 年)等对话系统,用于生成聊天消息,以便新答案适应之前的聊天对话并确保答案符合预定义的人类偏好(例如长度、风格、适当性)。提示学习 提示学习是一种 LLM 方法,它使用存储在语言模型中的知识来完成下游任务(Liu 等人,2023 年)。一般而言,提示学习不需要对语言模型进行任何微调,这使其高效且灵活。情绪:“),然后选择最可能的输出 s ∈{“positive”,“negative”} 而不是空间。最近的进展允许更复杂的数据驱动提示工程,例如通过强化学习调整提示(Liu et al.,2023)。seq2seq 术语序列到序列(seq2seq)是指将输入序列映射到输出序列的机器学习方法(Sutskever et al.,2014)。一个例子是基于机器学习的不同语言之间的翻译。此类 seq2seq 方法由两个主要组件组成:编码器将序列中的每个元素(例如,文本中的每个单词)转换为包含元素及其上下文的相应隐藏向量。解码器反转该过程,将向量转换为输出元素(例如,来自新语言的单词),同时考虑先前的输出以对语言中的模型依赖关系进行建模。seq2seq 模型的思想已得到扩展,以允许多模态映射,例如文本到图像或文本到语音的映射。Transformer Transformer 是一种深度学习架构(Vaswani 等,2017),它采用自注意力机制,对输入数据的每个部分的重要性进行不同的加权。与循环神经网络 (RNN) 一样,Transformer 旨在处理顺序输入数据(例如自然语言),可用于翻译和文本摘要等任务。但是,与 RNN 不同,Transformer 会一次性处理整个输入。注意力机制为输入序列中的任何位置提供上下文。最终,Transformer(或一般的 RNN)的输出是文档嵌入,它呈现文本(或其他输入)序列的低维表示,其中相似的文本位于更近的位置,这通常有利于下游任务,因为这允许捕获语义和含义 (Siebers et al., 2022)。变分自动编码器 变分自动编码器 (VAE) 是一种神经网络,它被训练来学习输入数据的低维表示,方法是将输入数据编码到压缩的潜在变量空间中,然后从该压缩表示中重建原始数据。VAE 与传统自动编码器的不同之处在于,它使用概率方法进行编码和解码过程,这使它们能够捕获数据中的底层结构和变化,并从学习到的潜在空间中生成新的数据样本 (Kingma and Welling, 2013)。这使得它们不仅可用于异常检测和数据压缩等任务,还可用于图像和文本生成。零样本学习/小样本学习 零样本学习和小样本学习是指机器学习处理数据稀缺问题的不同范例。零样本学习是指教会机器如何从数据中学习一项任务,而无需访问数据本身,而小样本学习是指只有少数特定示例的情况。零样本学习和小样本学习在实践中通常是可取的,因为它们降低了建立 AI 系统的成本。LLM 是小样本或零样本学习器(Brown 等人,2020 年),因为它们只需要一些样本即可学习一项任务(例如,预测评论的情绪),这使得 LLM 作为通用工具具有高度灵活性。
