深度学习是当今世界临床诊断和治疗中非常重要的技术。卷积神经网络 (CNN) 是深度学习的最新发展,用于计算机视觉。我们的医学研究重点是脑肿瘤的识别。为了提高脑肿瘤分类性能,提出了一种以二叉树结构为框架的平衡二叉树 CNN (BT-CNN)。它有两个不同的模块 - 卷积和深度可分离卷积组。使用卷积组可实现更短的时间和更高的内存,而深度可分离卷积组则相反。这种平衡二叉树启发的 CNN 平衡了两个组以在时间和空间方面实现最佳性能。在公共数据集上对所提出的模型以及 CNN-KNN 等最先进的模型以及 Musallam 等人、Saikat 等人和 Amin 等人提出的模型进行了实验。在将数据输入模型之前,我们使用 CLAHE、去噪、裁剪和缩放对图像进行预处理。预处理后的数据集根据 5 倍交叉验证分为训练数据集和测试数据集。对所提出的模型进行训练,并将其性能与 CNN-KNN 等最新模型以及 Musallam 等人、Saikat 等人和 Amin 等人提出的模型进行比较。与其他模型相比,所提出的模型报告的平均训练准确率为 99.61%。所提出的模型实现了 96.06% 的测试准确率,而其他模型分别实现了 68.86%、85.8%、86.88% 和 90.41%。此外,所提出的模型在所有折叠中获得了训练和测试准确率的最低标准差,使其对于数据集不变。
1. 理解数据结构的基本概念。 2. 理解用于分析算法性能的符号。 3. 为特定应用选择并应用适当的数据结构。 4. 理解递归的概念及其在解决问题中的应用。 5. 展示对搜索和排序算法的透彻理解。 UNIT-I 简介:数据类型、数据结构、数据结构类型、操作、ADT、算法、算法比较、复杂性、时间-空间权衡。递归:简介、递归函数的格式、递归与迭代、示例。 UNIT-II 链表:简介、链表和类型、链表的表示、链表上的操作、链表与数组和动态数组的比较。 UNIT-III 堆栈和队列:堆栈简介、堆栈的应用、堆栈实现的实现和比较。队列简介、队列的应用和实现、优先级队列和应用。 UNIT-IV 树:定义和概念、二叉树的运算、二叉树的表示、一般树到二叉树的转换、树的表示、树的遍历、二叉搜索树。 UNIT-V 图:介绍、图的应用、图表示、图遍历、最小生成树。搜索和排序:线性搜索、二叉搜索、排序算法 - 冒泡排序、选择排序、快速排序、堆排序。教科书:
1. 理解和分析算法的空间和时间复杂度。 2. 确定适合给定问题的数据结构。 3. 在各种实际应用中实现图形算法。 4. 实现用于查询和搜索的堆和树。 5. 在高级数据结构操作中使用基本数据结构。 6. 在各种实际应用中使用搜索和排序。 模块:1 函数增长 3 小时 算法和数据结构的概述和重要性 - 算法规范、递归、性能分析、渐近符号 - Big-O、Omega 和 Theta 符号、编程风格、编码细化 - 时空权衡、测试、数据抽象。模块:2 基本数据结构 6 小时 数组、堆栈、队列、链表及其类型、线性数据结构的各种表示、操作和应用 模块:3 排序和搜索 7 小时 插入排序、合并排序、线性时间排序-排序的下限、基数排序、双调排序、鸡尾酒排序、中位数和顺序统计-最小值和最大值、预期线性时间内的选择、最坏情况线性时间内的选择、线性搜索、插值搜索、指数搜索。 模块:4 树 6 小时 二叉树-二叉树的性质、B 树、B 树定义-B 树上的操作:搜索 B 树、创建、分裂、插入和删除、B+ 树。 模块:5 高级树 8 小时 线程二叉树、左撇子树、锦标赛树、2-3 树、伸展树、红黑树、范围树。模块:6 图表 7 小时 图表表示、拓扑排序、最短路径算法 - Dijkstra 算法、Floyd-Warshall 算法、最小生成树 - 反向删除算法、Boruvka 算法。 模块:7 堆和哈希 6 小时 堆作为优先级队列、二叉堆、二项式和斐波那契堆、哈夫曼编码中的堆、可扩展哈希。 模块:8 当代问题 2 小时 总授课时长:45 小时 教科书 1. Cormen, Thomas H.、Charles E. Leiserson、Ronald L. Rivest 和 Clifford Stein。算法简介。麻省理工学院出版社,2022 年。 参考书 1. Skiena, Steven S. “算法设计手册(计算机科学文本)”。第 3 版
图。 了解有关搜索和排序技术的概念 UNIT-I 简介:抽象数据类型,单链表:定义、操作:遍历、搜索、插入和删除,双向链表:定义、操作:遍历、搜索、插入和删除,循环链表:定义、操作:遍历、搜索、插入和删除。 UNIT-II 堆栈:堆栈 ADT、数组和链表实现,应用程序-表达式转换和评估。队列:队列的类型:简单队列、循环队列、队列 ADT-数组和链表实现。优先队列、堆。 UNIT-III 搜索:线性和二进制搜索方法。排序:选择排序、冒泡排序、插入排序、快速排序、合并排序、堆排序。时间复杂度。图:基本术语、图的表示、图遍历方法 DFS、BFS。 UNIT IV 字典:线性列表表示、跳跃列表表示、操作 - 插入、删除和搜索。哈希表表示:哈希函数、冲突解决 - 单独链接、开放寻址 - 线性探测、二次探测、双重哈希、重新哈希、可扩展哈希。 UNIT-V 二叉搜索树:各种二叉树表示、定义、BST ADT、实现、操作 - 搜索、插入和删除、二叉树遍历、线程二叉树、AVL 树:定义、AVL 树的高度、操作 - 插入、删除和搜索 B 树:m 阶 B 树、B 树的高度、插入、删除和搜索、B+ 树。教科书:1. 使用 C++ 的数据结构,特别版-MRCET,Tata McGraw-Hill Publishers 2017。2. C++ 中的数据结构、算法和应用,S.Sahni,University Press (India) Pvt.Ltd,第 2 版,Universities Press Orient Longman Pvt. Ltd. 教育。
人们从工作记忆 (WM) 训练中受益的程度存在很大差异。尽管越来越多的研究关注与 WM 训练结果相关的个体差异,但我们仍然缺乏对哪些特定的个体差异以及以何种组合方式导致个体间训练轨迹差异的了解。在当前的研究中,568 名本科生在两周内完成了几种 N-back 干预方案之一。参与者的训练轨迹被分为三种不同的训练模式(高绩效者、中等绩效者和低绩效者)。我们应用机器学习算法来训练二叉树模型,以预测个人的训练模式,该模型依赖于先前文献中已确定为相关的几个个体差异变量。这些个体差异变量包括预先存在的认知能力、性格特征、动机因素、视频游戏经验、健康状况、双语能力和社会经济地位。我们发现我们的分类模型在区分高绩效者和相对较低的绩效者方面表现出良好的预测能力。此外,我们发现开放性和预先存在的 WM 能力是区分高绩效者和低绩效者的两个最重要的因素。然而,对于低绩效者来说,开放性和视频游戏背景是他们学习坚持的最重要预测因素。总之,在培训之前,可以使用参与者的特征来预测个人培训表现,这可以为个性化干预措施的制定提供参考。
人们从工作记忆 (WM) 训练中受益的程度存在很大差异。尽管越来越多的研究关注与 WM 训练结果相关的个体差异,但我们仍然缺乏对哪些特定的个体差异以及以何种组合方式导致个体间训练轨迹差异的了解。在当前的研究中,568 名本科生在两周内完成了几种 N-back 干预方案之一。参与者的训练轨迹被分为三种不同的训练模式(高绩效者、中等绩效者和低绩效者)。我们应用机器学习算法来训练二叉树模型,以预测个人的训练模式,该模型依赖于先前文献中已确定为相关的几个个体差异变量。这些个体差异变量包括预先存在的认知能力、性格特征、动机因素、视频游戏经验、健康状况、双语能力和社会经济地位。我们发现我们的分类模型在区分高绩效者和相对较低的绩效者方面表现出良好的预测能力。此外,我们发现开放性和预先存在的 WM 能力是区分高绩效者和低绩效者的两个最重要的因素。然而,对于低绩效者来说,开放性和视频游戏背景是他们学习坚持的最重要预测因素。总之,在培训之前,可以使用参与者的特征来预测个人培训表现,这可以为个性化干预措施的制定提供参考。
量子算法能够利用多项式数量的量子比特探索指数级的多种状态,因而在各类工业和科学应用中前景广阔。量子游走是研究最为深入的量子算法之一 [1]。与经典随机游走一样,其量子变体也被广泛用于增强各种量子计算和模拟 [2,3]。虽然量子游走与经典随机游走有着本质区别,但量子算法接近经典算法还是有一定的限度 [4]。经典随机游走的一个有用特性是它可以用马尔可夫链蒙特卡洛 (MCMC) 进行有效模拟,因为后续运动仅取决于当前位置,而不取决于之前的历史。这种 MC 性质是一些模拟多体物理系统的算法的核心,其中生成过程近似于局部的。对于同样具有重要量子特性的物理系统,MCMC 的速度是以固有量子模拟的准确性为代价的。高能物理中的部分子簇射就是这样一个物理系统 [ 5 ],其中夸克或胶子辐射出几乎共线的夸克和胶子簇射。真正的量子效应可以近似为 MCMC 的修正 [ 6 ],但无法在经典 MCMC 方法中直接有效实现。考虑以下量子树:每一步,自旋为 1/2 的粒子可以向左移动一个单位或向右移动一个单位。经过 N 步,该系统形成一个二叉树,其中 2 N
决策树是众所周知的预测模型,常用于数据挖掘和机器学习的广泛应用 [1-3]。一般来说,决策树可以看作是一种流程图结构,可用于查询数据。从根开始,每个内部节点代表对查询数据的测试,每个传出分支代表此测试的可能结果。对于二叉树,测试结果是一个布尔值,因此可以是真也可以是假(即每个内部节点有两个分支)。树的每个叶子都可以与一个决策相关联。因此,从根到叶子的路径意味着一组针对查询数据的决策规则,就像一个顺序决策过程。具体来说,我们考虑二叉分类树,其中叶子的决策决定了数据点对预定义的离散类集的成员资格。从给定数据集推断决策树是一项监督机器学习任务,也称为决策树归纳(或决策树学习)。然而,寻找全局最优解是 NP 难问题 [4, 5],因此启发式递归算法在实践中更受青睐 [6]。此类算法通常以贪婪的自上而下的方式工作 [7]:从根开始,通过最小化数据不纯度函数来估计每个内部节点的最佳测试。相应地,沿着两个传出分支将数据集分成两个子集。对每个内部节点递归重复此过程,直到停止标准终止树的遍历并产生一个叶子节点,该叶子节点的分类决策基于节点内数据子集中存在的多数类。当所有路径都通向叶子节点时,算法结束。启发式创建的决策树并不能保证全局最优,但可能仍然适合实际用途。在量子计算的背景下,决策树可以被分配到量子机器学习领域 [8]。之前的几篇论文考虑了决策树和量子计算之间的相互作用。在 [9] 中,研究了决策树的遍历速度,并比较了经典方法和量子方法。作者发现两者之间没有优势。[10] 提出了一种启发式算法来诱导量子分类树,其中数据点被编码为量子态,并使用测量来找到最佳分割。然而,部分算法