精确操作是指机器人在综合环境中表现出高度准确,细致和灵活的任务的能力[17],[18]。该领域的研究重点是高精度控制和对动态条件的适应性。使用运动学模型和动态模型以实现结构化设置中的精确定位和组装[19],依靠刚性机械设计和模型驱动的控制依赖于刚性机械设计和模型驱动的控制。最近,深度学习和强化学习改善了动态环境中的机器人适应性[20],[21],而视觉和触觉感应的进步使千分尺级的精度在握把,操纵和组装方面[22]。此外,多机器人协作还允许更复杂和协调的精确任务。尽管取得了重大进展,但在多尺度操作整合,动态干扰补偿和低延迟相互作用中仍然存在挑战[23]。未来的研究应进一步改善交叉模态信息的实时对齐,并增强非结构化环境中机器人视觉的鲁棒性,以优化精确的操纵能力。
背景:Otago计划(OP)是基于证据的,重点是预防老年人的秋季预防。在早期老年康复(EGR)中以OP原理为基础的短期数字计划的可行性和可用性尚不清楚。目的:本研究调查了EGR设置的其他基于技术的秋季预防计划(FPP)的可行性和可用性。方法:我们在EGR的环境中进行了可行性研究。在2024年3月至6月之间招募了30名患者的样本(至少由Walker迁移;微型精神状态测试评分> 17),并与回顾性队列进行了比较(n = 30,前EGR患者)。使用称为“ Pixformance”的基于技术的平台,干预组(IG)中的所有患者(IG)中的所有患者/周/周进行了20分钟的监督FPP。该设备是数字教练,可以实时更正。主要终点是可行性(当IG的80%在2周内参加6次培训时,给出了可行性)。次要结果是可用性(患者和促进者的观点;≥75%),跌倒风险(伯格平衡量表),流动性(定时和进行测试),功能独立性(功能独立性措施)和日常生活的活动(Barthel Intex)。分析了包括焦虑和抑郁症(四个项目患者健康问卷; PH-Q4)的几个进一步的探索性终点。在进入EGR时以及出院前2周后访问数据。用于分析验证前的结果,应用依赖的学生t检验和Wilcoxon检验。EGR的主要指示是中风(9/60,15%)。使用重复测量的混合方差分析用于时间,组和相互作用相关的变化的统计分析。结果:分析了60例患者的队列(平均80.2,SD 6.1 y; 58%女性,35/60)。将患者招募到前瞻性IG(n = 30)和回顾性对照组(n = 30)中。在前瞻性IG中的30名患者中,有11例(37%)在2周内完成了6次培训课程。参与者未完成6次培训课程的原因是诊断任命(33%),疼痛/不适(33%)或疲劳(17%)。EGR患者将FPP的可用性定为84%,促进因子为100%中的65%。 对标准评估的预测试分析显示,伯格平衡量表有显着的相互作用(<.01)。 在两组中,随着时间的推移和GO测试(<.01),Barthel索引(<.01)和功能独立性度量(<.01)都发现了显着改善。 同样,在IG中,pH-Q4分数(.02)得到了提高。EGR患者将FPP的可用性定为84%,促进因子为100%中的65%。对标准评估的预测试分析显示,伯格平衡量表有显着的相互作用(<.01)。在两组中,随着时间的推移和GO测试(<.01),Barthel索引(<.01)和功能独立性度量(<.01)都发现了显着改善。同样,在IG中,pH-Q4分数(.02)得到了提高。
但是,在某些情况下,即使在视频中跳来跳去后,用户仍然很难构成某些部分,尤其是如果视频无法解决其特定查询时。在这种情况下,他们经常在评论部分留下问题,要求对视频的特定部分进行进一步的解释[54]。虽然及时回答问题对于从教程中有效学习至关重要,但是从社区获得答案或教程作者可能需要数小时或几天。在某些情况下,问题甚至可能没有解决。解决问题的延迟会破坏学习过程,并阻止观众完全参与教程内容。为了解决这个问题,我们探索了自动回答有关教程视频问题的过程的方法。我们首先是对用户问答行为的深入分析。为了洞悉这种行为,我们从Autodesk Fusion 360的前20个最受欢迎的视频教程(3D计算机辅助设计(CAD)软件应用程序中,我们收集了所有5,944个共同的数据集。在评论中确定了663个问题后,我们进一步确定了四个主要类别问题:有关教程内容(“内容”)的问题,有关学习者的个人设置的问题或有关教程(“用户”)(“用户”)的挑战,有关视频的元信息(META)的问题,以及与内容不直接相关的问题。
精确耕作(PF)(即精确农业),配备了自动化和机器人技术,可以通过利用有限的全球资源来提供所需的工具来提供全球粮食需求,在这种情况下,全球粮食供应受到全球变暖,减少农民的数量以及导致高食品通货膨胀率的战争的巨大影响[1]。精密牲畜养殖(PLF)旨在为农民提供配备了牲畜管理高级技术的有效工具,同时改善动物的福利,为满足消费者的需求以可持续的方式铺平道路。通过承担越来越多的任务[2],[3]在改善配备有增强低功率监控传感器技术[4]和人工智能(AI)技术[5],[6],[6],[7]的智能控制系统下,车辆变得越来越自动化。无人驾驶飞机(UAV)辅助智能农业,具有高机动性,通过避免高成本和提高监控质量,在有效地管理大型农场方面有了有效的大型农场的动力。自主无人机(A-UAV)具有很高的自主权,如飞行的自主机器人,具有自我学习和自我决定的能力 - 通过执行非平凡的事件序列,具有分解级别的准确性的非平凡序列,基于一系列规则,使用动态的飞行计划,将其限制在限制的范围内,而不是自治的范围,而不是限制人类的范围,而不是在限制的范围内,将其限制在范围内,而不是限制的计划。 [8],[9],[10],[11]完成各种自动化任务[12],[13],[14],[15],[16],[17],[17],[18]。它提供了有关牲畜人口规模,即时位置和与健康相关的问题的及时信息[24],[25],[26],[27]。在这项研究中,智能物联网(IoT)无人机解决方案,即所谓的iotfauav,在所有事物的自动化概念(AOE)和所有事物(IOE)[19] [20],[20]中使用了几种监督和不受监督的AI技术[19] [20],采用了跨学科的方法开发。安全且具有成本效益的Iotfauav通过使用基于视觉的传感器模态来定期以自动化的方式调查牲畜,这些传感器模态既涉及标准视觉频段传感和热成像仪。在两个农场中,在实际用例中实施Iotfauav表明,与物联网和传感器驱动技术嵌入的AUAV的整合到耕作中[28]可以通过大量的成本节省来提高生产率。iotfauav可以通过测量基于体温和行为因素的压力水平和代谢变化的指标来轻松诊断牲畜疾病并大大减少与疾病相关的死亡。
。cc-by-nc-nd 4.0国际许可证。是根据作者/资助者提供的预印本(未经同行评审认证)提供的,他已授予Biorxiv的许可证,以在2024年2月20日发布的此版本中显示在版权所有的此版本中。 https://doi.org/10.1101/2024.02.16.580578 doi:Biorxiv Preprint
道路基础设施监测检查和诊断道路恶化是一个至关重要的挑战。由于财务限制和人员短缺,以有限成本进行这种维护的需求越来越大。计算机视觉的最新进展促进了检查和诊断的自动化,从而提高了操作效率和稳定性[1]。计算机视觉模型的开发需要手动注释标记的数据集。但是,深度学习减少人工劳动的目标与模型开发是必需的大量征收的事实之间存在矛盾。为了解决这一矛盾,正在考虑一种人类的方法。该框架大大减轻了人类注释负担,从而通过训练数据收集和参数更新的迭代过程来使模型有效地更新[2]。同时,已经发表了许多有关将计算机视觉和自然语言理解的视觉和语言模型发表的研究。具有大规模数据集的经过训练的视觉和语言模型已公开可用。这些模型通过语言特征和训练中的图像功能的结合,具有零拍的识别,使它们甚至能够理解特定类别的图像,而无需在这些类别上明确培训。此外,当在特定数据集上使用零射击识别的模型时,通过对有限的样本(几次学习)进行细化,预计可以进一步提高准确性[3-5]。
本文提出了交通管理领域的创新解决方案 - 具有计算机视觉的智能交通信号灯,旨在改善哈萨克斯坦大城市的交通流量。随着车辆越来越多的数量和交通量的增加,交叉路口的拥堵和延误问题变得越来越重要。本文回顾了此类智能交通信号灯的运行原理,该原理基于使用传感器和相机分析计算机视觉数据。考虑应用这项技术的好处,包括响应能力,效率和环境友好。此外,详细分析了哈萨克斯坦主要大城市的智能交通信号灯的潜力,例如阿斯塔纳(Astana)和阿尔玛(Almaty)。结论支持对交通流量,旅行时间和对交通状况的总体评估的评估。最终,本文强调了智能交通信号灯的改善,在哈萨克斯坦现代城市的计算机视觉范围内,旨在确保交通安全和效率更高。
摘要 - 已经开发了越来越多的机器学习(ML)工具和原型,以协助空中交通管制员(ATCO)的决策过程。这些ML工具可以促进更快,更一致的决策,以进行流量监控和管理。但是,其中许多工具都使用了模型,在这些模型中,机器做出的决策不容易被ATCO组成。因此,有必要为ATCO开发可解释的基于ML模型的工具,以管理使用基于ML模型的决策的固有风险。这项研究调查了视觉上解释的ML模型,用于跑道出口预测,以实现更好的跑道管理。具体来说,这项研究采用了XGBoost上的局部可解释的模型解释(LIME),在该解释中,可以看到机器做出的跑道退出预测的决策。XGBoost在这里研究的三种飞机分别达到了94.35%,94.17%和80.87%的分类精度。分析石灰参数时,石灰显示了与特定跑道出口相对应的每个飞机的特征的贡献。此外,视觉分析可以将跑道退出预测中不确定性的来源告知决策者。因此,这项工作为基于ML的跑道出口预测铺平了道路,视觉上可解释的机器决策可以为ATCO提供见解,以提供有效的跑道管理以及到达和出发的计划。交互式接口可视化跑道退出预测的机器决策的交互式界面也是本文的原型。
视频人工智能系统的成本和收益如何?视频人工智能:初始成本和长期收益 投资人工智能是许多公司经常谈论的事情。但您实际上投资的是什么?成本是多少?长期收益是什么?在本白皮书中,我们将解释如何以及为何投资视频人工智能。 为什么要投资视频人工智能?主要原因是视觉图像包含非常重要的数据。通过使用这些数据,您可以作为一家公司脱颖而出,目标是为您的客户提供更好的解决方案。 通过投资视频人工智能 (Video AI),您可以从视频数据中获得正确的智能信息。简而言之,人工智能 (AI) 以高度智能的方式识别、分类和索引镜头。在此基础上,可以搜索、编辑和量化收集和分类的数据。人工智能软件实时处理视频数据,以便您可以在发生检测警报时快速评估和响应。此外,可以轻松检索现有视频片段。因此,您可以快速搜索数千小时的镜头以查找所需的事件。当 AI 系统识别、分类和索引素材时,会产生额外的数据。从长远来看,这些收集到的元数据可以成为有价值的商业智能的额外来源。可以使用各种商业智能工具清晰地以图形方式显示这一点。当您考虑实施视频 AI 系统时,重要的是要正确评估总购置成本。换句话说,就是总拥有成本 (TCO)。当然,这些成本会根据每个组织的独特需求和情况而有所不同。本白皮书将概述系统要求、基础设施、网络和实施方面的各种实施因素和相关成本考虑因素。以及该产品可以提供的巨大长期节省。系统要求视频 AI 是一种智能软件技术,但为了使软件正常运行,外围设备必须到位。提前清楚了解所需的系统要求非常重要。IP 摄像机的数量、所需的 AI 功能以及安装类型(本地、远程或云)的组合决定了所需的系统要求。一些视频 AI 平台易于与已安装的 IP 摄像机结合使用。在销售过程中提出这一点很重要,因为它会影响初始投资。一个好的视频 AI 实施合作伙伴可以就所需的硬件为您提供建议。为了达到预期的效果,确定摄像机的类型和摄像机的位置非常重要。基础设施视频 AI 解决方案的基础设施因需求而异。有些人希望为多个位置提供集成解决方案,而其他人可能会考虑将视频 AI 用于单个位置。IP 摄像机、AI 服务器和 NVR/VMS 系统都可以位于一个物理位置本地,也可以位于多个物理位置。将物理位置上的摄像机与(公共)云中的软件相结合也是可能的。同样,正确的 AI 实施合作伙伴的作用非常重要。
• 包括其他生物识别和取证功能,即 DNA、语音识别、踪迹 • SIPRNET 上的机密取证和生物识别架构(如果有实例) • 与陆军综合传感器架构 (ISA) 同步 • 北约生物识别架构关系 • 包括所有远征开发实验室及其活动 • 与 COI 协调进一步研究,以定义 D/MM、DOMEX、SE 和 WTI 对取证和生物识别企业的作用 • 与军事刑事调查组织 (MCIO) 协调,考虑企业流程以维护文件的保管链并及时将证据运送到取证实验室。 • 根据 DoDD 5205.15E、变更 1、DoD 取证企业、14Aug17 和 DoDD 8521.01E DoD 生物识别、变更 1、15Aug17 的发布进行更新。
