本文利用 MNIST 数据集提出了经典和连续变量 (CV) 量子神经网络混合多分类器。当前可用的分类器最多只能分类两类。所提出的架构允许网络对最多 nm 个类进行分类,其中 n 表示截止维数,m 表示光子量子计算机上的量子模式数。CV 模型中截止维数和概率测量方法的结合使量子电路能够产生大小为 nm 的输出向量。然后将它们解释为独热编码标签,并用 nm −10 个零填充。基于“连续变量量子神经网络” [1] 中提出的二元分类器架构,在光子量子计算模拟器上使用 2、3、...、6 和 8 量子模式构建了总共七个不同的分类器。它们由经典前馈神经网络、量子数据编码电路和 CV 量子神经网络电路组成。在包含 600 个样本的截断 MNIST 数据集上,4 曲模式混合分类器实现了 100% 的训练准确率。
MNIST数据库包含60,000张培训图像和10,000张测试图像。MNIST数据库中的一组图像是在1994年创建的,该数字由美国人口普查局的高中生和员工撰写 - MNIST数据库中的Wikipedia文章
摘要 - 在众多实际应用中,例如数据表格输入,邮政编码排序和银行检查帐户处理,手写数字识别是至关重要且困难的任务之一。因为每个人都以不同的大小,宽度和斜率不同的方式写作,因此识别数字可能会具有挑战性。过去已经使用了各种基于人工神经网络的模型进行模式匹配。在进行实验时,使用MNIST(改良的国家标准技术数据库数据库)数据集观察到了各种作者在字体上使用的显着差异。在这项研究中,我们评估了MNIST数据集上的机器学习算法,包括幼稚的贝叶斯,K-Nearest邻居,支持向量机,决策树,随机森林,人工神经网络,卷积神经网络和长期短期记忆。这项研究的目的是评估和对比深度学习和机器学习模型的有效性,而不是手写字母和数字数据集。注意到,CNN的表现优于MNIST数据集的精度为99.9%,而EMNIST数据集则为88%。每种识别方法都面临着提取关键特征的关键挑战,并且深度学习已被用来通过评估的结果来解决此问题。
卷积神经网络(CNN)是一种广泛使用的深度学习模型,对于图像识别和分类任务特别有效。CNN的性能不仅受其建筑的影响,而且受到其超参数的严重影响。因此,优化超参数对于改善CNN模型性能至关重要。在这项研究中,作者提出了利用优化算法,例如随机搜索,使用高斯工艺的贝叶斯优化以及使用树状结构化parzen估计器进行贝叶斯优化,以微调CNN模型的超标仪。将优化的CNN的性能与传统的机器学习模型进行了比较,包括随机森林(RF),支持向量分类(SVC)和K-Nearest Neighbors(KNN)。在这项研究中使用了MNIST和Olivetti Faces数据集。在MNIST数据集的训练过程中,CNN模型的最低准确度达到97.85%,超过了传统模型,在所有优化技术中,最大准确度为97.50%。同样,在Olivetti Faces数据集上,CNN的最低准确度为94.96%,而传统模型的最高准确度为94.00%。在训练测试程序中,CNN表现出令人印象深刻的结果,在MNIST数据集上达到了超过99.31%的准确率,而Olivetti Face face Dataset的准确率超过98.63%,其最大值分别为98.69%和97.50%。此外,该研究还将CNN模型的性能与三种优化算法进行了比较。结果表明,与传统模型相比,将CNN与这些优化技术集成可显着提高预测准确性。
尽管网络架构性能取得了实质性进步,但对抗性攻击的敏感性使深度学习难以在安全关键型应用中实施。本文提出了一种以数据为中心的方法来解决这个问题。一种具有不同亮度值的非局部去噪方法已被用于从修改后的国家标准与技术研究所数据库 (MNIST) 和加拿大高级研究中心 (CIFAR-10) 数据集生成对抗性示例。在扰动下,该方法在 MNIST 数据集中提供了高达 9.3% 的绝对准确度提高,在 CIFAR-10 数据集中提供了高达 13% 的绝对准确度提高。使用具有更高亮度值的变换后图像进行训练可提高分类器的鲁棒性。我们已经证明迁移学习不利于对抗性机器学习。结果表明,简单的对抗性示例可以提高弹性并使深度学习更易于应用于各种应用。
摘要 本文提出了一种基于各层神经元值统计分布概率的分段线性 (PWL) S 型函数逼近方法,仅使用加法电路即可提高网络识别精度。首先将 S 型函数划分为三个固定区域,然后根据神经元值分布概率将每个区域中的曲线分割为子区域,以减少逼近误差并提高识别精度。在Xilinx 的FPGA-XC7A200T上对MNIST和CIFAR-10数据集进行的实验表明,所提方法在DNN、CNN和CIFAR-10上分别达到了97.45%、98.42%和72.22%的识别准确率,比其他仅使用加法电路的近似方法分别提高了0.84%、0.57%和2.01%。关键词:S形函数、概率、神经网络、分段线性近似
摘要:针对使用规范(或经典的)鉴别损失函数(例如原始GAN(Vanillagan)系统中的一个),引入了统一的α-聚化发生器损耗函数,该双目标生成对抗网络(GAN)。发电机损耗函数基于对称类概率估计类型函数Lα,所得的GAN系统称为Lα -GAN。在最佳歧视器下,表明发电机的优化问题包括最大程度地减少Jensen-fα-差异,这是Jensen-Shannon Divergence的自然概括,其中Fα是以损失函数Lα表示的coNVEX函数。还证明,该Lα -GAN问题在特殊情况下恢复了文献中的许多GAN问题,包括Vanillagan,最小二乘GAN(LSGAN),最小值k thorder gan(L k gan)和最近引入的(αd,αd,αd,αd,αd,αd,αd,αd = 1。最后,为三个数据集(MNAIST,CIFAR -10和堆叠MNIST)提供了实验结果,以说明Lα -GAN系统的各种示例的性能。
摘要我们对一个简单的 d 级系统 (qudit) 的学习能力进行了全面的研究。我们的研究专门针对使用真实数据库(特别是 Iris、乳腺癌和 MNIST 数据集)的分类任务。我们探索了度量学习框架中的各种学习模型以及不同的编码策略。具体来说,我们采用数据重新上传技术和最大正交状态来容纳低维系统中的输入数据。我们的研究结果揭示了最佳策略,表明当输入特征数据的维度和类别数量不明显大于 qudit 的维度时,我们的结果与最佳经典模型相比显示出良好的可比性。即使对于维度 d < 5 并使用具有几层(L = 1、2)的算法的小型量子系统,这种趋势也是如此。但是,对于 MNIST 等高维数据,我们采用一种混合方法,即通过卷积神经网络进行降维。在这种情况下,我们观察到小型量子系统经常充当瓶颈,导致与经典系统相比准确性较低。
摘要 - 到现在,我们目睹了半导体行业的微型化趋势,并得到了纳米级表征和制造方面的开创性发现和设计的支持。为了促进趋势并产生越来越小,更快,更便宜的计算设备,纳米电子设备的大小现在达到了原子或分子的规模,这无疑是对新型设备的技术目标。随着趋势,我们探讨了在单个蛋白质分子上实施储层计算的非常规途径,并具有小型世界网络特性的介入神经形态连接。我们选择了izhikevich尖峰神经元作为电子处理器,与Verotoxin蛋白的原子相对应,其分子作为连接处理器的通信网络的“硬件”结构。我们在单个读数层上申请,以监督方式采用各种培训方法来研究分子结构化储层计算(RC)系统是否能够处理机器学习基准。我们从基于峰值依赖性塑性的远程监督方法开始,并以线性回归和缩放的共轭梯度背部传播训练方法继续进行。RC网络被评估为标准MNIST和扩展MNIST数据集的手写数字图像上的概念概念,并与其他类似方法相比,证明了可接受的分类精度。
卷积神经网络(CNN)被广泛用于解决各种问题,例如图像分类。由于其计算和数据密集型性质,CNN加速器已被开发为ASIC或FPGA。应用程序的复杂性增加导致这些加速器的资源成本和能源需求增长。尖峰神经网络(SNN)是CNN实施的新兴替代品,有望提高资源和能源效率。本文解决的主要研究问题是,与CNN等效物相比,SNN加速器是否真正满足了能源需求减少的期望。为此,我们分析了多个SNN硬件加速器的FPGA,以涉及性能和能源效率。我们提出了一种新颖的尖峰事件队列编码方案和一种新型的记忆组织技术,以进一步提高SNN能源效率。这两种技术都已经融入了最先进的SNN体系结构,并对MNIST,SVHN和CIFAR-10数据集进行了评估,以及两个不同尺寸的现代FPGA平台上的相应网络体系结构。对于小型基准(例如MNEST),SNN设计与相应的CNN实施相比,没有相当或很少的延迟和能源效率优势。对于更复杂的基准测试,例如SVHN和CIFAR-10,趋势逆转。