在行为神经科学领域,动物行为的分类和评分在动物展示的复杂行为的量化和解释中起着关键作用。传统方法依靠调查人员的视频检查,这是劳动密集型并且容易受到偏见的影响。为了应对这些挑战,研究工作集中在计算方法和图像处理算法上,用于自动行为分类。出现了两种主要方法:基于标记和无标记的跟踪系统。在这项研究中,我们展示了“增强现实科尔多瓦大学”(Aruco)标记的实用性,是一种基于标记的跟踪方法,用于评估鼻子poking/no-go行为任务期间的大鼠参与度。此外,我们还基于Aruco标记跟踪数据引入了一个两国参与模型,可以通过矩形内核卷积分析,以识别参与状态和分心状态之间的关键过渡点。在这项研究中,我们假设可以利用Aruco标记来准确估计动物互动在鼻子的行为/无行为行为任务中,从而可以计算出行为测试的最佳任务持续时间。在这里,我们介绍了我们的Aruco跟踪程序的性能,证明了98%的分类精度,该准确性已通过视频数据的手动策划进行了验证。此外,我们的卷积分析表明,平均而言,我们的动物在约75分钟时与行为任务脱离,为限制实验性会话持续时间提供了定量基础。总的来说,我们的方法为行为数据收集过程中的啮齿动物互动提供了可扩展,高效且可访问的解决方案。
摘要 - 尽管在边缘应用中广泛采用了视力传感器,例如监视,视频数据的传输会消耗大量频谱资源。Semantic Communication(SC)通过在语义层面提取和压缩信息,提供传输数据的准确性和相关性,同时大大减少传输信息的量,从而提供了解决方案。但是,由于缺乏感应能力,传统的SC方法由于在边缘视频中反复传输静态帧而面临效率低下,这会导致频谱效率低下。为了应对这一挑战,我们建议使用计算机视觉传感(SCCV)框架进行EDGE视频传输的SC。框架首先引入了压缩比(CR)自适应SC(CRSC)模型,能够根据帧是静态还是动态的,能够调整CR,并有效地保存光谱资源。此外,我们实施了一个对象检测和语义分割模型启用的传感(OSMS)方案,该方案可以智能地感知场景中的变化并通过封闭式分析评估每个帧的重要性。因此,OSMS方案根据实时感应结果为CRSC模型提供CR提示。此外,CRSC和OSM都设计为轻量级型号,可确保与实用边缘应用中常用的资源受限传感器的兼容性。实验模拟验证了所提出的SCCVS框架的有效性,证明了其提高传输效率的能力而无需牺牲关键的语义信息。
摘要:预期周围车辆的车道变化对于自动驾驶汽车的安全和ffi cient运行至关重要。以前的作品采用了不包含上下文信息的物理变量的用法。最近的方法依赖于行动识别模型,例如3D CNN和RNN,从而处理了复杂的体系结构。尽管变形金刚的出现成为行动识别,但采用变压器体系结构的作品有限。自主驾驶依赖于许多外部因素,包括驾驶员行为,天气状况,意外障碍和遵守Tra FFI C规则。但是,关键组件是能够准确预测自动驾驶汽车之前的车辆是否可能改变车道的能力。这项研究通过采用视频动作预测来应对自动驾驶汽车中车道变化预测(LCP)的关键挑战,并特别着重于整合视频视觉变形金刚(Vivit)。使用摄像头输入得出的小管嵌入,此方法利用了预防数据集,该数据集提供了对车辆轨迹和关键事件的详细注释。该方法超过了先前的模型,在通过1秒地平线预测车道变化方面达到了超过85%的测试精度。比较分析重点介绍了Vivit在视频数据中捕获时空依赖性方面的优越性,同时也需要更少的参数,从而提高了计算EFFI的效率。这项研究有助于通过展示Vivit在现实世界应用中的E FFI CACY并提倡进一步探索以提高车辆安全性和E FFI效率的进一步探索,从而有助于提高自主驾驶技术。
该机器人旨在穿越各种地形,检测金属对象,并提供实时视频流,用于远程监视和监视应用程序。全地形机器人配备了坚固的底盘和坚固的车轮,以确保跨不同表面的有效运动,包括粗糙的地形,砾石,沙子,沙子和不均匀的景观。纳入机器人的高扭矩电动机系统使其能够轻松克服障碍物和陡峭的倾斜度,从而确保在具有挑战性的环境中可靠的性能。为了驱动机器人的机能系统中使用的高扭矩电动机,使用了10A拉丝电机驱动器。该电机驱动器提供了必要的功率和控制信号,以有效地驱动电动机,从而确保机器人的精确运动和可操作性。10A刷子驱动器提供了强大的性能和保护功能,从而保护电动机免受过电流或电压异常的影响。为了促进金属检测,机器人配备了专用传感器系统,能够检测其附近的金属物体。此传感器系统利用电磁原理来识别和定位金属目标,提供有关此类物体的存在和大致位置的宝贵信息。金属检测能力通过实现诸如搜索和救援,考古探索和工业检查等应用来提高机器人的多功能性。此外,全地形机器人配备了实时流媒体功能,该功能允许实时视频传输到远程位置。此功能使用户能够远程监视机器人的周围环境和活动,从而在各种情况下提高情境意识并促进决策。通过集成无线通信技术,实现了实时流媒体功能,从而使视频数据通过网络连接无缝传输。
在过去的十年中,人工智能方法已广泛应用于神经退行性疾病。人工智能方法,特别是机器学习算法,将允许放射科医生、科学家和临床医生找到早期诊断工具(1)、预测纵向大脑变化(2)以及对患有不同类型神经退行性疾病的患者的有效治疗(3)。在这个研究主题中,我们旨在介绍人工智能方法在神经退行性疾病中的最新和新颖的算法、方法和应用。我们专注于用于阿尔茨海默病 (AD)、帕金森病 (PD)、运动神经元疾病、亨廷顿病、额颞叶变性和其他神经系统疾病的先进人工智能方法,以利用人工智能模型加深我们对这些疾病的了解。总的来说,我们收到了关于这个研究主题的八篇原创研究论文;其中五篇(由全球 35 位作者撰写)经过同行评审后被选中发表。所有被接受的文章都侧重于在神经退行性疾病或老年人领域开发新的人工智能方法。在本文中,我们总结了每篇被接受的文章中提出的主要发现和观点。在该研究主题的一篇题为“从手指敲击视频自动分类和评估共济失调严重程度”的论文中,Nunes 等人证明了手指敲击视频在对帕金森病患者和健康对照者进行共济失调分类方面的可靠性。此外,作者还旨在根据手指敲击视频数据和机器学习来预测整体疾病严重程度
神经解码领域的最新进展加速了脑机接口的发展,旨在帮助用户完成日常任务,如说话、行走和操纵物体。然而,目前训练神经解码器的方法通常需要大量标记数据,而这些数据在现实环境中可能非常耗费精力或无法获得。一种有趣的替代方法是使用自监督模型,在两个数据流之间共享自生成的伪标签;此类模型在未标记的音频和视频数据上表现出色,但它们在神经解码方面的扩展效果仍不清楚。在这里,我们通过利用多个同时记录的数据流(包括神经、运动和生理信号)来学习没有标签的神经解码器。具体来说,我们应用跨模态、自监督深度聚类来解码脑部记录中的动作;这些解码器与监督和单模态、自监督模型进行了比较。我们发现,与单模态自监督模型相比,在训练期间在两个数据流之间共享伪标签可显著提高解码性能,其准确度接近在标记数据上训练的监督解码器的准确度。接下来,我们开发了在三种模态上训练的解码器,其性能与监督模型相当或略有超过,实现了最先进的神经解码准确度。跨模态解码是一种灵活、有前途的方法,可在没有任何标签的情况下在现实世界应用中实现稳健、自适应的神经解码。
由于依赖时间密集型且不可扩展的专家评估,脑瘫(CP)的早期鉴定仍然是一个重大挑战。因此,一系列研究旨在通过机器学习来预测基于运动跟踪的CP分数,例如从视频数据中。这些研究通常可以预测临床评分,这是CP风险的替代。但是,临床医生并不想估计分数,他们想估计患者患临床症状的风险。在这里,我们提出了一个数据驱动的机器学习(ML)管道,该管道从基于婴儿视频的运动跟踪中提取运动功能,并估算使用自动符号的CP风险。使用AutoSklearn,我们的框架通过抽象研究人员 - 驱动器超参数优化来最大程度地拟合过度适应的风险。接受了从3至4个月大的婴儿进行运动数据的培训,我们的分类器预测在持有的测试集中,ROC-AUC的高度指示性临床评分(General运动评估[GMA]),表明运动学运动特征临床相关的可变性。没有再培训,相同的模型可以预测在后来的临床随访中,ROC-AUC为0.74,脑瘫结局的风险,表明早期运动表现形式概括为长期神经发育风险。我们采用预注册的锁定箱验证来确保索具性能评估。本研究强调了自动驱动运动分析对神经发育筛查的潜力,这表明数据驱动的运动轨迹提取的特征可以为早期风险评估提供可解释且可扩展的方法。通过整合预先训练的视频变压器,自动驱动的模型选择和严格的验证协议,这项工作可以推进使用视频衍生的运动功能来用于可扩展的,数据驱动的临床评估,从而证明基于可用的数据(如婴儿)(如婴儿)的计算方法如何增强神经发育障碍的早期风险检测。
实时详细信息对于地面作战部队的成功至关重要。目前的有人侦察、监视和目标捕获 (RSTA) 能力不足以弥补战场情报空白、提供超视距 (BLOS) 瞄准以及在敌对情况下、复杂地形和在城市地形中开展军事行动所需的伏击避免信息。美国陆军已经开发了一个名为“作战部队联网传感器 (NSfCF)”的计划,旨在开发一种先进的联网无人/无人值守传感器系统,该系统可以监视空白并为指挥官提供实时相关信息。通过使用联网无人传感器对空白进行远程监控,NSfCF 将增加部队的覆盖范围,并为指挥官提供有机资产,以完成他的战场态势感知 (BSA) 图像,用于直接和间接火力武器、预警和威胁避免。 NSfCF 项目整体上正在使用先进的传感器技术为无人地面车辆、小型无人飞行器 (SUAV) 和无人值守地面传感器开发传感器包。本文将重点介绍 SUAV 作为一种资产的作用,它由集成侦察监视和目标获取中心车辆控制,充当扩展范围传感器,提供超视距视频数据,以便及时检测、识别、确认和定位威胁。还将审查 SUAV 快速响应任务变化的能力,例如评估来自一系列联网无人值守地面传感器的警报。讨论还将包括 NSfCF 如何开发和评估便携式小型无人飞行器 (SUAV) 的传感器技术,并展示 SUAV 如何能够从可重新分配任务的机载传感器平台为地面指挥官提供实时视频,以进行侦察、监视、定位和本地安全。本文还介绍了所用飞机的类型、各种传感器有效载荷和传感器限制、小型无人机特定的图像处理以及作为网络中心枢纽的一部分而获得的任务灵活性。现场试验的评估/结论将包括经验教训以及这些经验教训如何导致对飞机状态数据、传感器、数据链路、数据格式、有效载荷容量、功能、地面站处理和可靠性的要求。
我的目标是构建可以帮助实现现实任务的人的交互式AI系统,例如使机器人能够根据语言教学“洗衣服”执行家庭任务,或者允许数字助手通过与他们交谈来帮助盲目的视觉挑战。为了构建类似的系统,我进行了跨学科研究,该研究涵盖了计算机视觉,自然语言处理和机器人技术的交集。我的研究重点是基础:将语言与感知(主要是视觉)和动作联系起来,使机器能够理解物理世界的语义。通过整合这些不同学科的见解,我试图促进可以看到,交谈和采取行动的AI代理的发展,从而为解决社会需求并推动AI能力界限的解决方案做出了贡献。视觉是人类智力最重要的方式之一。为了弥合视觉和语言之间的差距,我开发了视觉上的交互式系统,这些系统可以与人类有关图像的连续沟通[1,2,3]。训练这些系统的主要瓶颈是缩放视觉接地的对话数据的困难。为了应对这一挑战,我引入了一种新方法,该方法会自动生成有关从网络获得数百万张图像的合成对话数据。通过利用综合数据来训练视觉接地的对话系统,我发现它们在与人交谈时会对图像产生准确而强大的响应。我已经将基于图像的系统扩展到基于视频的交互式系统[4]。我们提出了一种方法,以有效地融合以语言为基础的时间和空间信息,考虑到视频数据的独特属性。幼儿不仅通过感知来了解物理世界的语义,而且还通过与环境互动来操纵他们的感知[5]。这种观点帮助我将视觉扎根的系统扩展到体现的AI系统[6,7,8],这些系统通过与人类的语言互动执行现实世界任务。我的工作专注于语言引导的机器人操纵,在该机器人手臂上应根据人类用户的自然语言指导来操纵对象。我研究了一种新的方案,其中初始指令在不提及目标对象的情况下模棱两可。体现的系统应通过查看和与用户对话来消除目标对象。我的工作成功 - 完全与人类互动以最小的互动来执行真实的任务。
• ADA - 美国残疾人法案,禁止在多个领域歧视残疾人,包括就业、交通、公共设施、通信以及州和地方政府计划和服务的获取。 • ANSI - 美国国家标准协会 (ANSI),一家私营非营利组织,致力于支持美国自愿标准和合格评定体系,并加强其在国内和国际上的影响力。 • 视听集成商 - 任何受 UIT 委托从事视听系统工作的个人或公司,但 UIT 课堂技术人员除外。 • AV 系统 - 视听系统包括实现向观众传达音频和/或视频内容意图所需的所有设备。 • AV/IT - 视听信息技术。 • AVIXA - 代表全球专业视听和信息通信行业的行业协会。 • CampusTV - 一种成本回收服务,为整个校园的办公室、会议室、大厅、休息室和公共区域的教职员工提供额外的付费电视频道。 • DSP - 数字声音处理器,一种专用于从源接收信号然后将其路由到放大器的微处理器。 • HDMI - 高清多媒体接口,一种专有音频/视频接口,用于将未压缩的视频数据和压缩或未压缩的数字音频数据从兼容 HDMI 的源设备(例如显示控制器)传输到兼容的计算机显示器、视频投影仪、数字电视或数字音频设备。 • InfoComm - AVIXA 在 2017 年之前的旧名称;仍出现在一些出版物参考中。 • NFPA - 美国国家消防协会,一家致力于消除火灾、电气和相关危险造成的死亡、伤害、财产和经济损失的国际非营利组织。(国家消防和电气规范) • POE - 以太网供电,一种让网络电缆传输电力的技术。 • Pro:Idiom - LG 开发的加密技术,用于酒店电视解决方案,以安全传输高清数字电视和视频点播 (VOD) 信号。 • 机架(机柜、外壳) - 带有安装导轨的框架或外壳,用于安装 AV 设备。 • RU - 机架单元,根据 IEC 60297-3-100 定义:1 个机架单元 = 44.45 毫米(1.75 英寸)高。 • UIT CT - 大学信息技术、课堂技术部门员工。 • UIT UC - 大学信息技术、技术服务和支持、网络服务、统一通信。 • UIT WT - 大学信息技术、Web 技术部门员工。