近年来,国内人口股息逐渐消失,劳动力短缺问题已成为一种瓶颈,限制了农业发展,尤其是劳动密集型行业的发展。选择机器人技术已从前瞻性研究变为实际需求。以计算机图像处理技术,工业机器人技术和人工智能技术代表的高和新技术逐渐渗透到农业领域,采摘机器人的研究和开发已经进入了一个快速发展的时期。目前,国内外的许多企业都在开发水果和蔬菜采摘机器人,例如日本松下,美国在美国收获Croo机器人,以色列的Ffrobotics等。农业采摘机器人的工作环境非常复杂,采摘机器人需要从混乱的背景中找到随机分布的水果和蔬菜,包括分支和叶子,天空和其他干扰[1]。解决此问题的关键是将机器视觉系统引入采摘机器人,以使拾取机器人具有很高的识别率和定位准确性,并在非结构化的环境中实现自动导航。从搜索,扫描,识别,定位到最终效应器控制和操作中实现,并最终实现农作物的自动收获。例如,智能农业采摘平台
提取和分层模式识别。方法论:研究中已经采用了一系列互联网资源来收集数据,然后进行“理论分析”。理论分析阶段至关重要,因为它扩大了对受试者的理解。发现:该研究除了收集数据外,还采用了“主题分析”来进一步分析收集的数据。此外,理论分析在本研究中是有用的工具,因为它促进了该领域的发展并使高级信息更容易获得。讨论:本文对机器学习对图像识别和计算机视觉的影响进行了全面分析。结论:研究研究了计算机视觉和图像识别如何受到机器学习的重大影响。关键字:机器学习,计算机视觉,卷积神经
摘要:飞机周转过程中关键里程碑节点的自动采集是机场协同决策发展需求中的重要内容。本文提出一种基于计算机视觉的框架,自动识别航班进出站、停靠/脱离站活动并记录相应的关键里程碑节点。该框架无缝集成了计算机视觉领域的最新算法和技术,包括预处理和关键里程碑采集两个模块。预处理模块从机场地面复杂背景中提取关键里程碑节点执行者的时空信息。第二个模块针对两类关键里程碑节点,即以路内和路外为代表的基于单目标的节点和以对接和解除对接楼梯为代表的基于双目标交互的节点,分别设计了两种关键里程碑的收集方法。构建了两个数据集用于所提框架的训练、测试和评估。现场实验结果表明,所提框架可以替代目前常规的手动记录方法,有助于自动收集这些关键里程碑节点。
摘要:飞机周转过程中关键里程碑节点的自动采集是机场协同决策发展需求中的重要内容。本文提出一种基于计算机视觉的框架,自动识别航班进出站、停靠/脱离站活动并记录相应的关键里程碑节点。该框架无缝集成了计算机视觉领域的最新算法和技术,包括预处理和关键里程碑采集两个模块。预处理模块从机场地面复杂背景中提取关键里程碑节点执行者的时空信息。第二个模块针对两类关键里程碑节点,即以路内和路外为代表的基于单目标的节点和以对接和解除对接楼梯为代表的基于双目标交互的节点,分别设计了两种关键里程碑的收集方法。构建了两个数据集用于所提框架的训练、测试和评估。现场实验结果表明,所提框架可以替代目前常规的手动记录方法,有助于自动收集这些关键里程碑节点。
今天的端到端学习系统可以学会从感知中明确推断控制。很难保证这些系统的稳定性和鲁棒性,因为它们通常是针对非结构化,高维且复杂的观察空间的(例如,来自像素输入流的自动驾驶)。我们建议利用控制控制的Lyapunov功能(CLFS)为基于端到端视觉的策略配备具有稳定性的策略,并在CLFS(ATT-CLF)中引入稳定性注意力,以解决环境变化并提高学习灵活性。我们还提出了一种不确定性传播技术,该技术被紧密整合到ATT-CLF中。我们通过与经典的CLF,模型预测控制以及在光真实的模拟器和实际的全尺度自动驾驶汽车中进行比较,证明了ATT-CLF的有效性。关键字:端到端学习,稳定性,自主驾驶
摘要 - 本研究论文介绍了基于动作检测以增加运动动力的基于计算机视觉增强现实游戏的开发。随着数字游戏的日益普及,体育活动和运动参与的越来越多,尤其是在年轻一代中。为了解决这个问题,我们开发了一系列增强现实游戏,这些游戏要求玩家在游戏中采取身体动作并取得成功。这些游戏是使用计算机视觉技术开发的,以检测玩家的运动并提供实时反馈,增强游戏体验并促进体育锻炼。我们的用户研究结果表明,玩增强现实游戏的参与者报告了从事体育锻炼和运动的更高水平。调查结果表明,具有计算机视觉的增强现实游戏可能是促进体育锻炼和运动参与的有效工具,尤其是在年轻一代。
抽象溺水是一个重要的公共健康问题。视频溺水检测算法是找到溺水受害者的有用工具。但是,溺水研究研究的三个挑战通常会遇到:缺乏实际的溺水视频数据,微妙的早期溺水特征以及缺乏实时时间。在本文中,作者提出了一个水下计算机视觉的溺水检测装置,该检测设备由嵌入式AI设备,相机和防水外壳组成,以解决上述问题。检测设备利用Jetson Nano的高性能计算通过在获得的水下视频流中提出的溺水检测算法实现溺水事件的实时检测。所提出的溺水检测算法主要由两个阶段组成:在第一步中,成功地解决了周围环境的干扰,并为视频溺水检测提供了值得信赖的基础,Yolov5N网络用于根据溺水者的特征来检测近事实的人体。在第二阶段,作者提出了一个基于深层高斯模型,用于快速特征向量检测。轻巧的DDN与高斯模型相结合,以检测高级语义特征的异常,该功能具有更高的鲁棒性,并解决了缺乏溺水视频的缺乏。实验结果表明,所提出的溺水检测算法具有良好的全面性能和实际应用值。
展示人工智能 (AI) 能力的挑战之一是找到有效的方式来以切实的方式展示其能力。在本文中,我们使用 Unitree A1 四足机器人展示了一个基于视觉的 AI 演示器。该演示器旨在供苏黎世应用科技大学人工智能中心 (CAI) 使用,以在现实环境中展示 AI 的能力,例如展览。为了实现这一点,我们开发了一个应用程序,允许机器人响应四种特定的手势。该软件从机器人的集成摄像头接收实时图像,并利用 MediaPipe 框架进行手部跟踪和界标点生成,这些界标点实时显示在远程 PC 上。我们根据 3768 个手势记录训练的逻辑回归模型随后会检测站在机器人前面的用户做出的手势。该模型与机器人的系统进行通信,允许通过用户界面控制其检测和姿势。在我们的实验室测试中,机器人展示了每个手势的平均准确率为 91%。然而,我们发现在强光或弱光环境中,机器人的性能不太可靠,准确率仅为 70%。为了提高机器人在这些条件下的性能,我们建议实施额外的算法或微调 MediaPipe 管道。总的来说,我们的演示器为 CAI 部门提供了一个展示 AI 的宝贵工具,因为它允许观众使用直观的手势与机器人互动,并通过观察机器人的即时反应来亲身体验 AI。
在基于视觉的环境中有效学习对于加固学习(RL)代理至关重要,而从经验上则观察到,从高维观察(例如原始像素)中学习是样本中的样本感知的。对于共同实践,图像输入的RL算法通常使用由CNN组成的编码器来从高维观测值中提取有用的特征。最近的研究表明,CNN对图像样式具有很强的归纳偏见,而不是内容(即代理形状),而内容是RL算法应重点关注的信息。受到这一点的启发,我们建议通过提出对RL的控制网络来减少CNN的固有样式偏差。它可以帮助RL算法有效地关注真正值得注意的信息,例如代理商的特征。我们的方法结合了两个传输网络和功能编码器,并通过对比度学习方法进行了指导RL算法以更有效地学习采样。广泛的实验表明,扩展框架大大提高了现有的无模型方法的性能(即sac),使其能够达到深态控制套件基准的最新性能。关键字:强化学习,对比学习,归纳偏见,样式转移