摘要:近年来,越来越多的框架已应用于脑部计算机间技术技术,基于脑电图的机车成像(MI-EEG)正在迅速发展。但是,提高MI-EEG分类的准确性仍然是一个挑战。提出了一个深入的学习框架,即提议解决非平稳性质,激发发生的时间定位以及本文中MI-EEG信号的频段分布特征来解决非平稳性质。首先,根据C3和C4通道之间的逻辑对称关系,MI-EEG信号的时频图像扣除(IS)的结果用作分类器的输入。它既降低了冗余,又增加了输入数据的特征差异。第二,注意模块被添加到分类器中。作为基本分类器构建了卷积神经网络,并通过引入卷积块注意模块(CBAM)来自适应提取有关MI-EEG信号出现的时间位置和频率分布的信息。这种方法减少了无关的噪声干扰,同时增加了模式的鲁棒性。在BCI竞争IV数据集2B上评估了框架的性能,该数据集2B,平均准确性达到79.6%,平均KAPPA值达到0.592。实验结果验证了框架的可行性,并显示了MI-EEG信号分类的性能提高。
文本对图像和图像到文本翻译是在自然语言处理(NLP)和计算机视觉的交集中迅速发展的域。文本对图像生成涉及基于描述性文本输入的图像的综合。此过程利用高级机器学习模型,例如生成对抗网络(GAN)和扩散模型,创建与提供文本相匹配的连贯性和上下文相关的视觉效果。这些模型学习了文本描述和视觉特征之间的复杂关系,从而可以生产从现实的照片到艺术渲染的各种图像。相反,图像到文本翻译的重点是从视觉输入中生成文本描述。此任务利用卷积神经网络(CNN)与复发性神经网络(RNN)或变形金刚结合进行分析和解释图像的技术。目标是提取相关信息,捕获诸如对象,动作和上下文之类的细节,并将其转换为自然语言描述。这两个过程都在各个领域都有重要的应用程序,包括创建内容,视障人士的可访问性以及增强技术中的用户互动。
在安全的通信和数据保护领域中,隐身志通过在看似无害的载体文件(例如图像)中隐藏信息来扮演关键角色。本文提出了用于图形用户界面(GUI)和Python Imaging库(PIL)的Python应用程序,旨在实现图像隐肌。所提出的系统允许用户将秘密消息嵌入数字图像中,同时保持载体图像的视觉完整性。此外,它还提供了从地对图像中提取隐藏消息的功能。通过用户友好的界面,用户可以选择图像和编码/解码消息无缝,从而增强了隐形技术的可访问性和可用性。该实施证明了Python在开发数据安全和隐私的实用解决方案方面的有效性,为个人和组织提供了一种多功能工具,以通过掩护通信渠道来保护敏感信息。
摘要 - 交通迹象对于向驾驶员提供重要信息,确保其安全并帮助他们遵守道路规则至关重要。对象检测算法(例如您只看一次(YOLO))在自动驾驶汽车中使用来监视交通标志信息。但是,大多数对象检测研究都集中在识别交通标志而不是其身体状况上。现有数据集的一个主要问题是缺乏有关培训损坏的流量标志的数据,这可能会对对象检测算法的性能产生不利影响。为了解决这个问题,我们的论文全面审查了图像到图像(I2i)算法,以修改现有的流量标志图像以展示不同的身份状态(正常和损坏)。我们使用最先进的图像式图像翻译技术,UNET视觉变压器周期符合生成对抗网络(UVCGAN)V2和能量引导的随机微分方程(EGSDE)进行实验进行实验。使用Fréchet成立距离(FID)和并排图像比较评估我们的实验结果。我们分析并讨论可能的和未来的改进。关键字 - 流量标志检测,图像生成,图像 - to-Image(I2i),生成对抗网络(GAN),循环生成对抗网络(Cyclegan),扩散模型
我们为未配对的图像到图像(I2i)翻译提出了一种新颖的解决方案。要将带有各种对象的复杂图像转换为不同的域,最近的十种方法使用对象注释来执行每类源源到目标样式映射。但是,我们在i2i中仍有一个要利用的意义。每个类中的一个对象由多个组件组成,所有子对象组件都具有不同的特征。例如,汽车类中的汽车由汽车车身,轮胎,窗户,头部和尾灯等组成,应分别处理它们以进行现实的i2i换算。问题的最简单解决方案将是使用比简单对象注释使用更详细的注释带有子对象组件的注释,但这是不可能的。本文的关键思想是通过利用In-of图像的原始样式绕过子对象的注释,因为原始样式将包括有关子对象组件的特征的信息。具体来说,对于每个像素,我们不仅使用源和目标域之间的每类样式差距,还使用像素的原始样式来确定像素的目标样式。为此,我们为未配对的i2i翻译(Shunit)提供了风格的协调。我们的回流通过从类存储器和原始源图像样式检索的目标域样式来生成新样式。我们的目标是源和目标样式的协调,而不是直接源到-target样式映射。源代码可在线获得:https://github.com/bluejangbaljang/shunit。我们通过广泛的实验来验证我们的方法,并在最新的基准集合中实现最先进的性能。
摘要 - 注意力多动障碍(ADHD)是一种神经发育障碍,影响了一定程度的儿童及其生活方式。一种治疗这种疾病的新方法是在整个患者中使用脑部计算机界面(BCI)学会自行自我调节自己的症状。在这种情况下,研究导致了旨在估计对这些界面的关注的工具。同时,虚拟现实(VR)耳机的民主化以及它为多个方面产生有效的环境的事实:安全,灵活和生态上有效,导致其用于BCI应用程序的使用增加。另一点是人工智能(AI)在不同领域的医疗领域越来越发达。在本文中,我们提出了一种创新的方法,目的是从生理信号的测量中估算注意力:脑电图(EEG),凝视方向和头部运动。该框架是为了评估VR环境中的注意力的开发。我们为特征提取和专用的机器学习模型提出了一种新颖的方法。试点研究已应用于一组志愿者,与最先进的方法相比,我们的方法的错误率较低。关键字 - 虚拟现实,机器学习,大脑计算接口,眼睛跟踪
该项目着重于使用卷积神经网络(CNN)的动物和鸟类鉴定系统的开发。野生动植物保护和生态研究要求准确的物种识别,拟议的系统采用深度学习来满足这一需求。通过在动物和鸟类图像的各种数据集上训练CNN,该系统在物种鉴定方面具有很高的精度,从而有助于保护工作。面对环境威胁,该项目解决了物种保存的紧迫性。传统物种识别方法通常是耗时的,容易出现人为错误。基于CNN的方法提供了更有效,更准确的解决方案。该项目的基础在于一个全面的图像数据集,包括广泛的物种,使CNN能够识别微妙的视觉区别。该项目不仅涉及培训CNN,还涉及创建一个用户友好的界面,以简化图像上传和快速的物种识别。这种可访问性可确保广泛的受众可以从该技术中受益,从而支持物种保存的原因。通过利用CNN,该项目代表了野生动植物保护的强大工具,加速了物种鉴定的过程,促进有效的保护措施,并有助于监测生物多样性。它突出了协作努力在保护我们星球的自然遗产方面的重要性。关键字:卷积神经网络(CNN),物种识别。
Shyam R. Sihare 博士 APJ 阿卜杜勒卡拉姆政府学院,计算机科学与应用系,印度西尔瓦萨 电子邮件:shyams_sihare1979@rediffmail.com 收到日期:2022 年 3 月 31 日;修订日期:2022 年 4 月 19 日;接受日期:2022 年 5 月 27 日;发表日期:2022 年 10 月 8 日 摘要:量子计算机和经典计算机的图像表示截然不同。在经典计算机中使用位。然而,在量子计算机中使用量子位。在本文中,量子图像表示与经典图像表示相似。为了表示量子图像,使用了量子位及其相关属性。量子成像以前是通过叠加完成的。因此,使用叠加特征实现量子成像。然后使用酉矩阵来表示量子电路。对于量子表示,我们选择了一张适度的图像。为了创建量子电路,使用了 IBM 的 Qiskit 软件和 Anaconda Python。在 IBM 实时计算机和 Aer 模拟器上,运行了 10,000 次的量子电路。IBM 实时计算机中的噪声比 IBM Aer 模拟器中的噪声降低得更多。因此,Aer 模拟器的噪声和量子比特误差高于 IBM 实时计算机。量子电路设计和图像处理均使用 Qiskit 编程完成,该编程是本文末尾的附录。随着拍摄次数的增加,噪声水平进一步降低。当图像以较低的拍摄次数运行时,噪声和量子比特误差会增加。通过电路计算拍摄次数增加完成的量子图像处理、降噪和误差校正。量子图像处理、表示、降噪和误差校正都利用了量子叠加概念。索引词:Aer 模拟器、实时量子计算机、量子图像、量子图像像素、叠加、量子力学。
1 University of Electronic Science and Technology of China, School of Computer Science & Engineering (School of Cybersecurity), Digital Media Technology, Chengdu, Sichuan, China 2 The University of Chicago, The Division of the Physical Sciences, Analytics, Chicago, IL, USA 3 University of Electronic Science and Technology of China, School of Integrated Circuit Science and Engineering (Exemplary School of Microelectronics), Microelectronics Science and工程,成都,四川,中国4号华盛顿大学,位于圣路易斯,奥林商学院,金融,圣路易斯,莫5哥伦比亚大学,FU工程基金会和应用科学学院,运营研究,纽约,纽约,纽约,纽约州a xiangao1434964964935@gmail@gmail.com,bimonajue.com,bsimonajue.com@yconajue.com@yqmail.com,dd99797979. liyang.wang@wustl.edu,e yucheng576@gmail.com