摘要背景:由于结直肠癌是世界上最重要的癌症类型之一,常常导致死亡,因此计算机辅助诊断 (CAD) 系统是一种有前途的早期诊断该疾病的解决方案,并且比传统结肠镜检查副作用更少。因此,本研究的目的是设计一个 CAD 系统,用于使用人工神经网络和粒子群优化器的组合来处理结直肠计算机断层扫描 (CT) 图像。方法:首先,研究的数据集是根据德黑兰 Loghman‑e Hakim 医院和伊斯法罕 Al‑Zahra 医院的患者的结直肠 CT 图像创建的,这些患者接受了结直肠 CT 成像,并在之后最多一个月内接受了常规结肠镜检查。然后执行模型实施步骤,包括图像的电子清洗、分割、样本标记、特征提取以及使用粒子群优化器训练和优化人工神经网络 (ANN)。使用二项统计检验和混淆矩阵计算来评估模型。结果:McNemar 检验结果显示,模型的准确度、灵敏度和特异性分别为 0.9354、0.9298 和 0.9889,P 值为 0.000。此外,模型与 Loqman Hakim 医院和 Al-Zahra 医院放射科医生诊断比率的二项式检验 P 值分别为 0.044 和 0.021。结论:统计检验和研究变量的结果表明,与放射科医生的意见相比,基于 ANN 和粒子群优化混合创建的 CTC-CAD 系统在根据 CTC 图像诊断结肠息肉方面是有效的。
摘要:本征态热化假设 (ETH) 是统计力学在一般孤立量子系统中出现的主要猜想,它以算子的矩阵元素的形式表示。一种称为遍历双分 (EB) 的类似物描述了纠缠和局部性,并以本征态的分量的形式表示。在本文中,我们显著地推广了 EB 并将其与 ETH 统一,扩展了 EB 以研究更高的相关性和非平衡系统。我们的主要结果是一种图解形式,它基于最近发现的 ETH 与自由概率论之间的联系来计算本征态和算子之间的任意相关性。我们将图表的连通分量称为广义自由累积量。我们以多种方式应用我们的形式。首先,我们关注混沌本征态,并建立所谓的子系统 ETH 和 Page 曲线作为我们构造的结果。我们还改进了已知的热约化密度矩阵计算,并评论了先前在蒸发黑洞的 Page 曲线计算中注意到的纠缠熵复制方法的固有自由概率方面。接下来,我们转向混沌量子动力学,并证明 ETH 是热化的充分机制。具体而言,我们表明约化密度矩阵会放松到其平衡形式,并且系统在后期遵循 Page 曲线。我们还证明纠缠增长的不同阶段被编码在 EB 的更高相关性中。最后,我们一起研究了本征态和算子的混沌结构,并揭示了它们之间先前被忽视的相关性。至关重要的是,这些相关性编码了蝴蝶速度,这是相互作用量子系统的一个众所周知的动力学特性。
日出大学,拉贾斯坦邦阿尔瓦尔 摘要:矩阵是人工智能 (AI) 的基础,是各种应用程序中数据表示、操作和转换的关键工具。从机器学习算法到神经网络架构,矩阵理论支持基本计算过程,使 AI 系统能够管理海量数据集、检测复杂模式并执行复杂转换。本文探讨了矩阵在 AI 中不可或缺的作用,重点介绍了线性和逻辑回归中的基本矩阵运算,以及它们在卷积神经网络 (CNN) 和循环神经网络 (RNN) 等更高级模型中的应用。探讨了矩阵分解和特征值计算等关键数学运算在数据缩减和特征提取中的重要性,从而提高了计算机视觉、自然语言处理 (NLP) 和机器人等领域的计算效率。本文还解决了与大规模矩阵运算相关的计算挑战,例如高维数据处理、可扩展性和数值稳定性。为了克服这些限制,我们讨论了分布式矩阵计算框架、GPU 和 TPU 硬件加速以及稀疏矩阵技术的进步,展示了这些创新如何提高 AI 模型的效率和可扩展性。此外,量子计算和矩阵专用硬件解决方案的最新进展为未来的研究提供了有希望的方向,有可能通过实现矩阵计算的指数级加速来彻底改变 AI。总体而言,矩阵仍然是 AI 计算能力的核心,它提供了一个多功能且高效的框架,既支持当前的应用,也支持人工智能的新兴功能。关键词:矩阵理论、线性代数、机器学习、人工智能、奇异值分解 (SVD)。
摘要 - 基因组分析是对基因的研究,其中包括对基因组特征的识别,测量或比较。基因组学研究对我们的社会至关重要,因为它可以用于检测疾病,创建疫苗和开发药物和治疗方法。作为具有大量并行处理能力的一种通用加速器,GPU最近用于基因组学分析。开发基于GPU的硬件和软件框架用于基因组分析正在成为一个有希望的研究领域。为了支持这种类型的研究,需要基准,以具有代表性,并发和多种应用程序的应用程序。在这项工作中,我们创建了一个名为Genomics-GPU的基准套件,其中包含10种广泛使用的基因组分析应用。它涵盖了DNA和RNA的基因组比较,匹配和聚类。我们还调整了这些应用程序来利用CUDA动态并行性(CDP),这是一个支持动态GPU编程的最新高级功能,以进一步提高性能。我们的基准套件可以作为算法优化的基础,也可以促进GPU架构开发进行基因组学分析。索引术语 - 基因组学,生物信息学,基准测试,GPU,加速计算,基因组分析,计算机体系结构。I。研究基因组序列分析是指组织ISM的DNA序列的研究。该程序具有许多重要的应用,例如大流行爆发追踪,早期癌症检测[79],药物发育[43]和遗传疾病鉴定[87]。要通过通过四个字母(A,C,T和G)(也称为碱基或核苷酸)的字符串的形式将DNA分子通过分析生物体的基因组构成分析。确定碱基序列的过程称为基因组测序[30]。比较和发现生物学序列之间差异的过程称为序列比对[67]。过去十年中,基因组数据库的指数增长,需要在计算工具的帮助下进行大量数据。结果,已经开发了几种用于基因组分析的工具,例如BLAST [57]和GATK [58]。为了提高性能,某些基因组测序框架(例如Parasail [31]和KSW2 [53])采用了具有SIMD能力的CPU。他们利用SIMD指令提供的并行性来执行矩阵计算,通过在多个操作数中运行同一矢量命令。FPGASW [39]使用FPGA中的大量执行单元创建线性收缩期
随着近期量子设备的问世和量子霸权实验的突破,量子计算在过去几年中受到了众多科学学科的广泛关注。尽管有优秀的教科书和讲义,如 [NC00、KSV02、Nak08、RP11、Aar13、Pre99、DW19、Chi21],但这些材料通常涵盖量子计算的所有方面,包括复杂性理论、量子设备的物理实现、量子信息理论、量子误差校正、量子算法等。这几乎没有空间来介绍如何使用量子计算机来解决科学和工程计算中具有挑战性的计算问题。例如,在初次阅读 Nielsen 和 Chuang [NC00] 的经典教科书(当然,只是部分章节)后,我既惊叹于量子计算机的潜在能力,也对其实际适用范围感到惊叹:我们真的要建造一台量子计算机来执行量子傅里叶变换还是执行量子搜索?量子相位估计是连接量子计算机和几乎所有科学计算问题(如求解线性系统、特征值问题、最小二乘问题、微分方程、数值优化等)的唯一桥梁吗?得益于量子算法发展的重大进展,现在应该不言而喻,上述两个问题的答案都是“否”。这是一个快速发展的领域,许多重要进展都是在过去几年中取得的。然而,许多此类发展都涉及理论和技术,对于仅具有量子计算基本知识的人来说可能难以理解。我认为,值得以一种更容易理解的方式,将这些令人兴奋的结果传递给更广泛的社区,让他们对使用未来的容错量子计算机解决科学问题感兴趣。这是加州大学伯克利分校数学系 2021 年秋季学期应用数学研究生专题课程《科学计算的量子算法》中使用的一套讲义。这些讲义只关注与科学计算密切相关的量子算法,特别是矩阵计算。事实上,从量子算法动物园 1 的角度来看,这只是一小类量子算法。这意味着许多重要的材料被有意遗漏了,例如量子复杂性理论、数论和密码学中的应用(尤其是 Shor 算法)、代数问题中的应用(如隐藏子群问题)等。对这些主题感兴趣的读者可以查阅一些上述优秀的教科书。由于这些材料旨在融入一个学期的课程,其他几个与科学计算相关的主题没有包括在内,特别是绝热量子计算 (AQC) 和变分量子算法 (VQA)。这些材料可能会添加到未来版本的讲义中。据我所知,
摘要知识表示和推理的计算机科学领域(KRR)旨在像人类一样有效地理解,推理和解释知识。由于该领域的许多逻辑形式主义和推理方法已经表明了高阶学习的能力,例如抽象概念学习,将人工神经网络(ANN)与KRR方法集成到用于学习复杂和实用任务的KRR方法引起了很多关注。例如,神经张量网络(NTN)是神经网络模型,能够将符号表示为矢量空间,在这些模型中可以通过矩阵计算进行推理。当在逻辑张量网络(LTN)中使用时,它们能够将一阶逻辑符号(例如常数,事实和规则)嵌入到实值张量中。KRR和ANN的整合提出了将神经科学中的生物学灵感带入KRR的潜在途径。但是,高阶学习并不是人类大脑的独有性。昆虫,例如果蝇和蜜蜂,可以解决简单的关联学习任务,并学习抽象概念,例如“相同”和“差异”,这被视为高阶认知功能,通常被认为取决于自上而下的新皮层处理。用果蝇的实证研究强烈支持,即在昆虫大脑的嗅觉加工中使用了随机代表性结构。基于这些结果,我们提出了一个随机加权的特征网络(RWFN),该特征网络将随机绘制的未经训练的权重纳入编码器,该编码器使用适应性线性模型作为解码器。单个隐藏层神经网络在RWFN中模仿输入神经元和高阶处理中心之间的随机投影,该神经网络在RWFN中模仿,该神经网络使用kernel近似在输入之间更好地表示输入之间的复杂关系。由于这种特殊表示形式,RWFN可以通过仅训练线性解码器模型有效地学习输入之间的关系程度。我们将RWFN与LTN的性能进行比较,用于语义图像解释(SII)任务,这些任务被用作LTN如何利用一阶逻辑上的推理以超越仅数据驱动方法的性能的代表性示例。我们证明,与LTN相比,RWFN可以在对象分类和检测SII任务中对象之间的关系方面取得更好或类似的性能,同时使用更少的可学习参数(1:62比例)和更快的学习过程(1:2的运行速度比率)。此外,我们表明,由于随机权重不取决于数据,因此有几个解码器可以共享一个随机编码器,从而使RWFN具有独特的空间量表经济体,用于同时分类任务。
摘要知识表示和推理的计算机科学领域(KRR)旨在像人类一样有效地理解,推理和解释知识。由于该领域的许多逻辑形式主义和推理方法已经表明了高阶学习的能力,例如抽象概念学习,将人工神经网络(ANN)与KRR方法集成到用于学习复杂和实用任务的KRR方法引起了很多关注。例如,神经张量网络(NTN)是神经网络模型,能够将符号表示为矢量空间,在这些模型中可以通过矩阵计算进行推理。当在逻辑张量网络(LTN)中使用时,它们能够将一阶逻辑符号(例如常数,事实和规则)嵌入到实值张量中。KRR和ANN的整合提出了将神经科学中的生物学灵感带入KRR的潜在途径。但是,高阶学习并不是人类大脑的独有性。昆虫,例如果蝇和蜜蜂,可以解决简单的关联学习任务,并学习抽象概念,例如“相同”和“差异”,这被视为高阶认知功能,通常被认为取决于自上而下的新皮层处理。用果蝇的实证研究强烈支持,即在昆虫大脑的嗅觉加工中使用了随机代表性结构。基于这些结果,我们提出了一个随机加权的特征网络(RWFN),该特征网络将随机绘制的未经训练的权重纳入编码器,该编码器使用适应性线性模型作为解码器。单个隐藏层神经网络在RWFN中模仿输入神经元和高阶处理中心之间的随机投影,该神经网络在RWFN中模仿,该神经网络使用kernel近似在输入之间更好地表示输入之间的复杂关系。由于这种特殊表示形式,RWFN可以通过仅训练线性解码器模型有效地学习输入之间的关系程度。我们将RWFN与LTN的性能进行比较,用于语义图像解释(SII)任务,这些任务被用作LTN如何利用一阶逻辑上的推理以超越仅数据驱动方法的性能的代表性示例。我们证明,与LTN相比,RWFN可以在对象分类和检测SII任务中对象之间的关系方面取得更好或类似的性能,同时使用更少的可学习参数(1:62比例)和更快的学习过程(1:2的运行速度比率)。此外,我们表明,由于随机权重不取决于数据,因此有几个解码器可以共享一个随机编码器,从而使RWFN具有独特的空间量表经济体,用于同时分类任务。