无人驾驶飞行器 (UAV) 以其速度快、功能多样而闻名,可用于收集航空图像和遥感数据,用于土地利用调查和精准农业。随着无人机的可用性和可访问性的增长,它们现在作为船舶监控和搜索救援 (SAR) 行动等海洋应用的技术支持至关重要。无人机上可以配备高分辨率摄像头和图形处理单元 (GPU),以有效和高效地帮助定位感兴趣的物体,适用于紧急救援行动,或者在我们的案例中,用于精准水产养殖应用。现代计算机视觉算法使我们能够在动态环境中检测感兴趣的物体;然而,这些算法依赖于从无人机收集的大型训练数据集,而目前在海洋环境中收集这些数据集非常耗时且费力。为此,我们提出了一个新的基准套件 SeaD- roneSim,它可用于创建具有真实感的照片级航空图像数据集,并为任何给定对象的分割掩模提供地面实况。仅利用 SeaDroneSim 生成的合成数据,我们在真实航拍图像上获得了 71 个平均精度 (mAP),用于检测我们感兴趣的对象,即本可行性研究中流行的开源遥控水下机器人 (BlueROV)。这款新模拟套装的结果可作为检测 BlueROV 的基准,可用于
摘要 近年来,虚拟现实 (VR) 在学习环境中的应用受到了广泛关注。这种关注是自千禧年以来出现的更广泛趋势的一部分。这种趋势是人们越来越关注能够在科学课堂中提供更大真实感和沉浸感的教学模式。本研究使用 VR 作为数字学习环境支持工具。VR 被定义为使用三维图形系统与各种界面相结合,在计算机生成的环境中提供沉浸感和交互效果。本研究的目的是调查 VR 实验室的内容学习和沉浸感障碍,该实验室旨在为大型大学系统复制动手实验室。数据收集的主要方法是结合多项选择题和开放式调查问卷以及访谈。12 名教师和 285 名学生参加了一项试点计划,测试基于 VR 的实验室系统作为本科生命科学课程的一部分。总体而言,结果表明,由于与课堂沉浸感和界面相关的障碍,目前实施的 VR 系统尚未准备好大规模实施。这项研究还提供了设计建议,可能有助于未来 VR 在课堂上的进一步发展。
简介文本到场景生成的一个主要挑战是生成多样化但又与用户输入保持相关的场景。 先前关于 3D 场景生成的工作主要集中于使用用户明确提到的对象或相关对象(而不考虑基础环境)的场景的可信度(Chang 等人,2015 年;Coyne 和 Sproat,2001 年)。 然而,虚拟场景也可以包含隐式对象(即通过常识与其他对象相关并从隐式场景知识中得出的对象(¨ Ohlschl¨ager 和 V˜o,2020))。 隐式对象可以通过特定于环境或特定于实例的知识收集,并且可以通过描绘多样化和人口密集的物理空间的真实感来提高生成场景的可信度。我们之前曾介绍过 AI Holodeck (Smith 等人,2021) 的初始阶段,这是一个使用通过带注释的数据集收集的环境特定知识从自然语言输入生成虚拟 3D 场景的应用程序。在本文中,我们介绍了 AI Holodeck 应用程序的新版本,它通过两个层次收集常识性知识。首先,如前一版本所示,带注释的图像数据集为系统提供了与用户明确定义的对象隐式相关的对象。其次,CLIP 引导 (Radford 等人,2021) 搜索从与用户输入相关的参考图像中提取对象及其空间关系。由于存在令人惊讶的隐式对象或其位置,这一添加也增加了我们系统对可解释性的需求。对于
摘要 目的:本项先导研究测试了一次性虚拟现实正念模块 (VRMM) 对轻度至中度创伤性脑损伤 (TBI) 患者的可行性和减压效果。方法:38 名参与者参加了一项采用混合方法收敛并行设计的先导研究。收集了前测和后测的压力水平;参与者进行了一个简短的 4 个问题定性访谈。使用了 Mann Whitney U 和 Wilcoxon 符号秩检验。定性分析采用了扎根理论。结果:使用 VRMM 后,三分之二 (24) 的参与者的压力水平显著降低。一项关键的定性发现表明,参与者发现 VR 环境的沉浸感和真实感有助于弥补 TBI 造成的认知缺陷。没有报告不良副作用,表明精心设计的 VRMM 可最大限度地减少运动引起的不良影响,对 TBI 患者具有良好的耐受性。结论:VR 环境中的引导式正念活动耐受性良好,参与者总体上认为 VRMM 可有效降低压力水平。基于 VR 的环境有潜力利用引导式正念练习,并可能帮助 TBI 患者提高注意力。该技术在 TBI 康复中的进一步应用前景广阔,值得未来研究探索 VR 在改善康复结果方面的好处。
脑机接口 (BCI) 设计的新趋势旨在将这项技术与沉浸式虚拟现实相结合,从而为用户提供真实感。在本研究中,我们提出了一种实验性 BCI,使用运动想象 (MI) 来控制沉浸式远程呈现系统。该系统具有沉浸感,因为用户可以以第一人称视角 (1PP) 控制 NAO 人形机器人的运动,也就是说,机器人的运动就像是他/她自己的运动一样。我们使用图论属性(例如度、中介中心性和效率)分析了 BCI 控制过程中 1PP 和 3PP 之间的功能性大脑连接。在 1PP 的情况下以及在传统的第三人称视角 (3PP) 的情况下,这些指标的变化都是在用户可以看到机器人的运动作为反馈的情况下获得的。作为概念验证,在两个受试者进行 MI 来控制机器人运动时,记录了他们的脑电图 (EEG) 信号。图论分析应用于通过部分定向相干性 (PDC) 获得的二元定向网络。在初步评估中,我们发现 1PP 条件下 α 脑节律的效率高于前额叶皮层的 3PP。此外,在 1PP 条件下,EEG 通道 C3(初级运动皮层)测量的信号对其他区域的影响更大。此外,我们的初步结果似乎表明,1PP 条件下 α 和 β 脑节律在前额叶皮层具有较高的入度,这可能与自主感的体验有关。因此,在沉浸式系统中控制远程呈现机器人时使用 PDC 结合图论可能有助于理解这些环境中大脑网络的组织和行为。
通过视觉引导手部动作进行的计算机交互通常采用抽象的基于光标的反馈或不同程度真实感的虚拟手 (VH) 表示。目前尚不清楚在虚拟现实环境中更改这种视觉反馈的效果。在这项研究中,19 名健康的右撇子成年人使用四种不同类型的视觉反馈执行食指运动(“动作”)和观察运动(“观察”):简单的圆形光标 (CU)、指示手指关节位置的点光 (PL) 图案、阴影卡通手 (SH) 和逼真的 VH。使用数据手套记录手指运动,并以光学方式记录眼动追踪。我们使用功能性磁共振成像 (fMRI) 测量大脑活动。与基线相比,动作和观察条件均显示枕颞皮质中的 fMRI 信号响应更强。动作条件还会引起运动、体感、顶叶和小脑区域的双侧激活增加。对于这两种情况,带有移动手指的手部反馈(SH、VH)比 CU 或 PL 反馈导致更高的激活,特别是在早期视觉区域和枕颞皮质中。我们的结果表明,与视觉不完整的手部和抽象反馈相比,在视觉引导的手指运动过程中,皮质区域网络的募集更强。这些信息可能对研究和应用或训练相关范例中涉及人体部位的视觉引导任务的设计产生影响。
摘要 — 我们引入了一种改进的增量学习算法,用于进化粒神经网络分类器 (eGNN- C+)。我们使用双边界超框来表示颗粒,并定制自适应程序以增强外框对数据覆盖和噪声抑制的鲁棒性,同时确保内框保持灵活性以捕获漂移。分类器从头开始发展,动态合并新类别,并执行局部增量特征加权。作为一种应用,我们专注于脑电图 (EEG) 信号中与情绪相关的模式的分类。情绪识别对于增强计算机系统的真实感和交互性至关重要。挑战恰恰在于开发高性能算法,能够有效地管理生理数据中的个体差异和非平稳性,而无需依赖特定于受试者的校准数据。我们从 28 名玩电脑游戏的人获得的 EEG 信号的傅里叶频谱中提取特征 - 这是一个公共数据集。每个游戏都会引发不同的主要情绪:无聊、平静、恐惧或快乐。我们分析单个电极、时间窗口长度和频带,以评估由此产生的独立于用户的神经模型的准确性和可解释性。研究结果表明,两个大脑半球都有助于分类,尤其是颞叶 (T8) 和顶叶 (P7) 区域的电极,以及额叶和枕叶电极的贡献。虽然模式可能出现在任何波段中,但 Alpha (8-13Hz)、Delta (1-4Hz) 和 Theta (4-8Hz) 波段按此顺序与情绪类别表现出更高的对应性。eGNN-C+ 证明了学习 EEG 数据的有效性。即使面对高度随机的时变 4 类分类问题,它也能使用 10 秒时间窗口实现 81.7% 的准确率和 0.0029 II 的可解释性。
图1:机器学习与AI模型的深入学习之间的关系。大流行效应在这首歌中引起了很多关注,继续深入学习尝试,从而增加了对机器的期望。基于无接触世界,更高的注意力与不同的应用有关,即面对识别,分类和检测(Hussin等人。(2022))。因为每个人的脸都不一样;它使人类具有惊人的真实感。机器学习已在许多领域广泛使用。研究社区正在不断就新发展领域进行研究。II。 机器学习方法于1959年,亚瑟·塞缪尔(Arthur Samuel)进行了机器的演变。 在1948年,图灵(Turing and Champernowne)创作了基于最重要的国际象棋游戏的计算机程序的纸和铅笔。 草稿算法是由Christopher Strachey(1952)创建的。 尼尔森在1960年代出版了带有模式分类书的模式分类。 Duda和Hart在1970年解释了模式分类。 研究人员Hinton,Nielsen,Rumelhart和Williams在1985年和1986年提出了神经网络。 用多层感知器(MLP)对实用反向传播(BP)的培训是一个主要的想法。 深度学习将神经网络视为今天的时间。 1。 ML的分类:无监督和监督的强化学习II。机器学习方法于1959年,亚瑟·塞缪尔(Arthur Samuel)进行了机器的演变。在1948年,图灵(Turing and Champernowne)创作了基于最重要的国际象棋游戏的计算机程序的纸和铅笔。草稿算法是由Christopher Strachey(1952)创建的。尼尔森在1960年代出版了带有模式分类书的模式分类。Duda和Hart在1970年解释了模式分类。研究人员Hinton,Nielsen,Rumelhart和Williams在1985年和1986年提出了神经网络。用多层感知器(MLP)对实用反向传播(BP)的培训是一个主要的想法。深度学习将神经网络视为今天的时间。1。ML的分类:无监督和监督的强化学习
农业航空:世界粮食供应的关键援助基础教育课程指南介绍大纲 I.基础农业航空课程指南的目的和意图。A.向教育工作者和学生介绍农业航空服务业。1.农业航空的历史。a.农业服务的发展/需求。b.行业的发展。2.当今的农业航空业。a.参与农业航空的人员。b.农业行业的重要性(林业、疾病控制)3.农业航空的未来。a.它在持续生产食品和纤维方面发挥的作用。b.深入了解农业航空的实用性和重要性。1.农业航空协助食品和纤维种植者。a.农业航空通过人们所吃的食物和所穿的衣服影响他们的生活。2.农业航空为联邦、州和地方政府提供服务。a.该行业协助保护森林,因此影响许多人的住所。b.农业航空业在需要时协助控制被视为健康威胁的昆虫。C. 确保人们了解农业飞行员的环境和安全问题。D. 为其他教育专家和程序员提供准确和最新的信息,供他们在教授该行业知识时使用。1.国家航空航天局、民航巡逻局、联邦航空管理局、课堂农业(美国农业部)等实体使用课程指南。II.基础农业航空课程指南的开发。A.由国家农业航空协会的女性开发。1.教育工作者协助开发。2.国家农业航空协会批准了该指南的概念和内容。3.国家农业航空研究与教育基金会资助了该项目。B.该指南包含有关农业航空业的准确和最新信息。1.WNAAA 和 NAAA 教育与公共关系委员会将根据需要更新信息。III.建议教育工作者遵循的程序。A.熟悉指南的内容。B.从资源列表中获取适当的补充材料。C. 将信息整合到现有课程中。1.增强现有课程。2.为课程提供真实感。IV.幼儿园、一年级和二年级内容 A. 预测试
第 3 天:UV 映射概述 – 介绍如何展开网格并准备进行纹理处理。第 4 天:使用图像映射进行纹理处理 – 使用图像映射和 UV 坐标将基本纹理应用于您的车辆模型。第 5 天:高级 UV 映射技术 – 探索更复杂的展开方法,以获得更好的纹理应用。第 6 天:着色和材质 – 了解如何使用 Blender 的着色器系统创建和分配逼真的材质。第 7 天:3D 场景的照明 – 为您的车辆模型设置有效的照明,以增强纹理可见性和真实感。第 8 天:渲染设置和优化 – 了解高质量渲染和性能优化所需的设置。第 9 天:项目审查和改进 – 根据讲师反馈确定纹理、材质和渲染设置。第 10 天:项目 1 提交和审查 – 提交您的渲染车辆项目并参与同行评审。项目 2:渲染场景(第 20 天截止)第 11 天:环境建模简介 - 学习构建 3D 环境的技术,重点是场景构图。第 12 天:建模背景元素 - 开始建模基本场景元素,例如建筑物、树木和地形。第 13 天:纹理场景模型 - 使用各种技术和图像贴图将纹理应用于背景和前景模型。第 14 天:环境场景的照明 - 尝试不同类型的照明设置以在场景中营造氛围。第 15 天:高级材质创建 - 为场景中的自然和人造物体创建逼真的材质(例如玻璃、金属)。第 16 天:摄像机角度和构图 - 设置摄像机视图并尝试构图以增强场景的视觉冲击力。第 17 天:粒子系统和效果 - 学习如何创建粒子系统以实现烟雾、雨或雾等环境效果。第 18 天:渲染和后期处理 - 了解如何渲染整个场景并在 Blender 中应用后期处理技术。第 19 天:场景审查和反馈 – 根据讲师反馈完善场景并准备最终渲染。第 20 天:项目 2 提交和审查 – 提交渲染的场景项目并参与同行评审和讨论。项目 3:渲染角色(截止时间为第 30 天)第 21 天:角色建模简介 – 开始创建基本的 3D 角色模型,重点关注解剖和比例。第 22 天:角色雕刻技巧 – 使用 Blender 的雕刻工具添加细节并完善角色的形态。第 23 天:角色 UV 贴图 – 展开角色模型以实现高效纹理。