使用有效的飞行策略在未知场景中避开混合障碍物是无人机应用面临的关键挑战。在本文中,我们介绍了一种更强大的技术,仅使用点云输入即可区分和跟踪动态障碍物和静态障碍物。然后,为了实现动态避障,我们提出了禁忌金字塔方法,以迭代方式采用有效的基于采样的方法求解期望的飞行器速度。通过求解具有期望速度和航路点约束的非线性优化问题来生成运动基元。此外,我们提出了几种技术来处理近距离物体的位置估计误差、可变形物体的误差以及不同子模块之间的时间间隔。所提出的方法已实现在机上实时运行,并在模拟和硬件测试中得到了广泛的验证,证明了我们在跟踪鲁棒性、能量成本和计算时间方面的优势。
摘要 脑机接口 (BCI) 处理算法需要强大的计算设备才能实时执行。在本文中,提出了一种用于对代表两个运动想象任务的脑电图 (EEG) 信号进行分类的硬件高效设计,并在现场可编程门阵列 (FPGA) 上实现。小波包分解 (WPD) 用作特征提取算法,线性判别分析 (LDA) 用作分类器。该系统是使用 System Generator 设计的,并使用硬件/软件联合仿真在 Zybo 板上实现。仿真结果显示,在两个运动想象任务的分类过程中准确率为 80%,时钟频率为 1.5 MHz 时延迟为 7.5 毫秒,功耗为 0.102 W。此外,所使用的 FPGA 资源量少于以前的类似工作,证明设计系统不仅实现了良好的准确性,而且以高效的方式实现了这一目标。
在精确的牲畜种植中,牛的个体识别对于为赋予动物福利,健康和生产力做出的决定提供了至关重要的。在文字中,存在可以读取耳罩的模型;但是,它们不容易携带到现实世界中的牛生产环境,并主要在静止图像上做出预测。我们提出了一个基于视频的牛耳牌阅读系统,称为deRmycow,该系统利用视频中的节奏特性来准确检测,跟踪和读取边缘设备上25 fps的牛耳标。对于视频中的每个帧,ReDmycow在两个步骤中发挥作用。1)标签检测:Yolov5s对象检测模型和NVIDIA DEEPSTREAM跟踪层检测并跟踪存在的标签。2)标签读数:小说whentoread mod-ule决定是读取每个标签,使用trba场景文本识别模型或使用从前框架上读取的读数。该系统是在边缘设备上实现的,即NVIDIA JETSON AGX ORIN或XAVIER,使其可移植到没有外部计算资源的牛生产环境中。要达到实时速度,请阅读 - MyCow仅在当前框架中读取检测到的标签,如果它认为在当前框架中明显改善决策时,它将获得更好的读数。理想情况下,这意味着即使标签被遮挡或模糊,也可以在视频中找到标签的最佳读数并存储在视频中。在真正的中西部奶牛场住房测试该系统时,9,000头母牛,雷米科(Demmycow)系统准确地阅读了96.1%的印刷耳廓,并证明了其现实世界中的商业潜力。devmycow为商业牛农场提供了知情的数据驱动决策流程的机会。
本文介绍了一种通过定制带有生理传感器的商用 HMD 来实时识别虚拟现实中用户心理工作量的“一体化”解决方案。首先,我们介绍了构建系统所采用的硬件和软件解决方案。其次,我们详细介绍了用于自动识别用户心理工作量的机器学习方法,这些方法基于著名的随机森林算法。为了收集数据来训练系统,我们对 75 名参与者进行了广泛的用户研究,使用 VR 飞行模拟器来诱导不同程度的心理工作量。与之前根据标准化任务(例如 n-back 任务)或预定义任务难度标记数据的研究不同,参与者在实验过程中被询问他们感知到的心理工作量水平。利用收集到的数据,我们能够训练系统以对四种不同程度的心理工作量进行分类,准确率高达 65%。此外,我们讨论了信号标准化程序的作用、不同生理信号对识别准确度的贡献,并将使用嵌入 HMD 中的传感器获得的结果与商业级系统进行比较。初步结果表明,我们的流程能够实时识别心理工作量。总之,我们的结果表明,这种将生理传感器直接嵌入 HMD 的一体化方法是实现
摘要:各种加载条件的耦合效应可能会导致偏转,定居点甚至在服务桥梁的失败。不幸的是,尽管它是最关键的负载之一,但通过桥梁监控系统目前为可持续操作,很难实时捕获行驶车辆的加载条件。要充分了解桥梁的状态,必须在动态的交通环境中获得瞬时车辆负载分布。尽管有一些可以识别超重车辆的方法,但捕获的车辆相关信息却分散且不完整,因此无法支持有效的桥梁结构性健康监测(BSHM)。本研究提出了一种基于视觉的非接触式方法,用于识别车辆负载,以实时监测桥梁结构健康。该提出的方法由四个主要步骤组成:(1)使用Yolov7为车辆建立双对象检测模型,(2)在桥面上开发一个混合坐标转换模型,(3)为移动车辆的实时轨迹监视的多对象跟踪模型,以及(4)建立级别融资模型的车辆和位置,并为车辆的负载和位置确定型号和位置。所提出的方法有效地可视化3D时空车辆载荷分布,速度低30fps。结果表明,混合坐标转换可确保车辆位置误差在1 m以内,与传统方法相比降低了5倍。轴距是通过双对象检测和转换来计算的,是车辆位置校正的主要参考。与传感器测得的速度相比,保留了车辆的轨迹和实时速度,平滑速度误差均低于5.7%。作者设想所提出的方法可以构成一种新的方法来进行实时的服务桥梁。
在过去的几十年中,系统神经科学为人类认知和行为对神经元网络的形成的依赖提供了证据,这些神经元网络暂时将分布的大脑区域响应于外部刺激和 /或任务需求(Gonzalez-Castillo和Bandettini,2018年,2018年),同样相当相关的网络(在2011年),并在2011年的corbect和corbert and corbect and conters和其他工作。最近,已经提供了证据证明内部状态(即交付外部输入时的大脑的潜在特性或活动)的想法,影响了大脑如何处理任务(Bradley等,2022)。看来,响应和任务性能是持续的潜在大脑状态和刺激处理之间非线性相互作用的结果(Huang等,2017),在时间和空间中不同状态之间的浮雕决定了与行为相关的大脑可变响应(Zagha和McCormicmick,2014)。在此框架中的一个相关示例是(Taghia et al。,2018)的工作,在sec- ond/seaceend暂时尺度上使用功能性磁共振成像(fMRI),提出了一种计算方法,以识别大型潜在大脑状态,并提出deter-
对手术仪器的准确识别对于术中人工智能(AI)系统的发展至关重要。在这项研究中,我们评估了Yolov8模型在识别机器人辅助腹部手术中的机器人和腹腔镜仪器方面的功效。具体来说,我们评估了其检测,分类和分段七种不同类型的手术工具的能力。从四个公共和私人来源编辑了一个多样化的数据集,其中包括代表各种手术环境和工具的7,400帧和17,175个注释。yolov8进行了训练和测试,用于二进制检测的平均平均精度为0.77,多仪器分类的平均精度为0.72。最佳性能。该模型还显示出极好的分割精度,达到0.91的平均骰子得分,平均交点为0.86,单极弯曲的剪刀得出最高的精度。值得注意的是,与腹腔镜工具相比,Yolov8对机器人仪器表现出了出色的识别性能,这可能归因于训练集中机器人仪器的更大表示。此外,该模型的快速推理速度为每帧1.12毫秒,突出了其对实时临床应用的适用性。这些发现证实了Yolov8使用全面的多源数据集对精确有效识别手术工具的潜力。
• 未来发展方向包括与人工智能开发人员合作建立自动化机制,实时识别不一致的病例,通过展示临床价值提高人工智能的接受度,并持续监控不一致的病例质量保证流程
摘要 - 计算机视觉,尤其是车辆和脚步 - 识别对于自主驾驶,人工智能和视频监视的演变至关重要。当前的交通监控系统在实时识别小物体和行人方面面临重大困难,对公共安全构成了严重的风险,并有助于交通效率。认识到这些困难,我们的项目着重于创建和验证高级深度学习框架,能够处理复杂的视觉输入,以确切,实时识别汽车和在各种环境情况下的人。在代表复杂城市环境的数据集上,我们培训和评估了Yolov8和RT-DETR模型的不同版本。Yolov8大版本被证明是最有效的,尤其是在行人识别方面,具有很高的精确性和健壮性。结果包括平均平均精度和召回率,证明了该模型可以显着改善交通监控和安全性的能力。本研究为计算机视觉中的实时可靠检测提供了重要的补充,为交通管理系统建立了新的基准。索引术语 - 车辆流量分析,对象检测,对象分类,深度学习,计算机视觉