DyCon D2435-M-MS1是一种高效率,5个安培开关模式,双输出,“智能” 24VDC电源(PSU),带有整体的Dycon PSUMON-01 PSU显示器和显示。PSU模块具有按需负载共享,以提供出色的灵活性,可以快速,大容量,电池充电,延长,备用,在光负载下持续持续时间,或者短,高电流,高电流,峰值负载,备用容量转移到电池充电中。它装有恒定操作温度传感器,该温度传感器会自动调整充电速率,以确保仅仅因为环境温度的上升而不会过度充电。这些单元不再依靠简单的电压读数来衡量电池状况,而是不断检查并显示电池的阻抗和电压,这使得对即将到来的问题和延长电池寿命的读数和警告更加准确。积分PSUMON-01监视器和易于阅读的显示器实时显示所有操作数据,而无需多米。可选的快速扫描模式即使显示了毫米和毫米的最小变化,任何故障消息都以红色显示。D2435-M-MS1-PSUMON-01安装并连接到2毫米钢安装板,一个可远程安装的绿色LED状态指示器,所有电池,地球和显示连接器都包含在纸箱中。
摘要——技术在医疗保健中发挥着最重要的作用,不仅在传感设备方面,而且在通信和记录方面也是如此。在术后几天内观察各种医疗参数至关重要。因此,医疗保健通信方法的最新发展通过物联网这一术语进行了定制,即使在偏远地区也能提供服务,物联网是医疗保健的催化剂,在许多应用中发挥着突出的作用。在本文中,微控制器用作通信网关。该系统提出了一种智能患者胎儿健康监测系统,该系统使用传感器跟踪患者健康状况,并在发生任何紧急情况时使用互联网通知其亲属或相关医生。控制器还与蜂鸣器连接,以提醒看护人检测器输出的变化。此外,为了跟踪心率的状态,控制器与 LCD 显示器连接,并作为无线局域网关联,以传输警报。如果系统检测到患者脉搏或血压有任何变化,系统会自动通过物联网向医生发送有关患者状态的警报,并通过云端实时显示患者体温的详细信息。因此,基于物联网的患者健康监测系统有效地利用互联网来观察患者的健康状况并及时挽救生命。因此,可以通过这种技术简单地进行快速有条件用药。该系统易于设置,具有高性能和及时响应能力。
展示人工智能 (AI) 能力的挑战之一是找到有效的方式来以切实的方式展示其能力。在本文中,我们使用 Unitree A1 四足机器人展示了一个基于视觉的 AI 演示器。该演示器旨在供苏黎世应用科技大学人工智能中心 (CAI) 使用,以在现实环境中展示 AI 的能力,例如展览。为了实现这一点,我们开发了一个应用程序,允许机器人响应四种特定的手势。该软件从机器人的集成摄像头接收实时图像,并利用 MediaPipe 框架进行手部跟踪和界标点生成,这些界标点实时显示在远程 PC 上。我们根据 3768 个手势记录训练的逻辑回归模型随后会检测站在机器人前面的用户做出的手势。该模型与机器人的系统进行通信,允许通过用户界面控制其检测和姿势。在我们的实验室测试中,机器人展示了每个手势的平均准确率为 91%。然而,我们发现在强光或弱光环境中,机器人的性能不太可靠,准确率仅为 70%。为了提高机器人在这些条件下的性能,我们建议实施额外的算法或微调 MediaPipe 管道。总的来说,我们的演示器为 CAI 部门提供了一个展示 AI 的宝贵工具,因为它允许观众使用直观的手势与机器人互动,并通过观察机器人的即时反应来亲身体验 AI。
印度教科技研究所,coimbatore 1 sentinfo@gmail.com,2 venkat.it@gmail.com,4 ramasamy.s@hit.s@hit.edu.in,4 md.devendran@gmail.com摘要:该项目旨在为食品和beverage提供精确估算的自动化系统,以估算食物和beverage的自动化系统,并深入研究。随着对健康意识的人的需求不断增长,需要使用可靠,高效且易于使用的工具,可以帮助用户做出明智的饮食选择。该项目利用图像处理技术和深度学习模型(例如卷积神经网络(CNN))来分析食物图像并预测相应的卡路里含量。该系统首先捕获食品或饮料的图像,然后将其处理并通过预先训练的深度学习模型。该模型在包含各种食品的图像及其营养信息的大型数据集上进行培训。预处理输入图像后,该模型通过利用其学习的特征来对食物进行分类并估算卡路里计数。然后将估计的卡路里值实时显示给用户。该项目利用关键技术,包括图像识别,深度学习和营养分析。它旨在将其集成到移动应用程序或Web平台中,从而使用户可以有效地跟踪其每日热量摄入量。通过在不同的数据集上进行培训,可以不断提高系统的准确性,从而确保对不同食品的可靠卡路里估算。该工具有可能通过促进更健康的饮食习惯来彻底改变个人健康管理。关键词:卡路里估计,深度学习,图像识别,食物分类,卷积神经网络,健康管理,营养分析,实时预测。
人脑被认为是最强大的量子计算机之一,将人脑与技术相结合甚至可以超越人工智能。使用大脑计算机界面(BCI)系统,可以分析和编程用于特定任务的大脑信号。这项研究工作采用BCI技术来进行医疗应用,这使不幸的瘫痪者能够仅使用自愿眨眼就与周围环境互动。这项研究有助于现有技术通过引入模块化设计,该设计具有三个物理分离的组件:头饰,计算机和轮椅。作为现有系统的信噪比(SNR)太高,无法将眼睛眨眼伪像与常规脑电图信号分开,因此使用了一个精确的ThinkGear模块,通过单个干电极获取了RAW EEG信号。嵌入式蓝牙模块将信号无线传输到计算机。一个MATLAB程序捕获了自愿的眼睛,从脑波中闪烁伪像,并通过蓝牙命令微型轮椅的运动。为了区分自愿眨眼与非自愿眼眨眼,确定了闪烁的强度阈值。MATLAB设计的图形用户界面(GUI)在实时显示脑电图,并使用户能够确定轮椅的运动,该轮椅的运动是专门设计用于从GUI中获得命令的。测试阶段的发现揭示了模块化设计的优势以及使用眼眨眼伪像作为脑控制轮椅的控制元素的功效。轮椅达到了96.4%的指挥检测和执行精度,这是现有系统的改进。此处介绍的工作对BCI系统的功能有了基本的了解,并为患有严重麻痹的患者提供了眨眼控制轮椅的导航。
本研究的动力来自两个因素:学生数学计算思维 (CT) 技能较差以及数字时代信息技术的快速发展。通过使用由 Unity 3D 提供支持的基于增强现实 (AR) 的教育内容,该内容可用于基于初始数学能力 (IMA) 的在线和离线学习,本研究明确旨在提高学生的数学计算思维能力。增强现实是使用实时显示在真实环境中的三维虚拟对象。学生的初始数学能力是数学学习成功的决定性变量之一,每个学生都有独特的学习风格。在这种情况下,学生的初始数学能力是学生在参与即将提供的学习之前所具备的能力。本研究侧重于评估决定学生在老师指导下学习的准备情况的基本数学技能水平。在 2022-2023 学年期间,从北干巴鲁一所公立初中的七年级每个班级随机抽取了 30 名学生参加这项准实验研究。本研究的主题是平面形状,特别是三角形和四边形。数据收集方法包括两种方法:(1)进行测试以评估数学计算思维能力和(2)进行访谈。访谈和记录数据以描述性方式进行分析,而统计测试则用于分析测试结果。结果表明,与传统学习方法相比,利用 Unity 3D 增强现实媒体来提高学生的数学计算思维能力取得了更好的效果,尤其是对于初始数学能力水平较低的学生。
f NIRS在红外光学成像系统附近的功能性测量人类受试者前额叶皮层的氧气水平变化。每个F NIRS系统都会在受试者接受测试,执行任务或接收刺激的情况下实时监测大脑中组织氧合的,并允许研究人员定量评估大脑功能(例如注意力,记忆,计划和解决问题),而个人执行认知任务。使用改良的啤酒叶法律计算出血红蛋白水平的相对变化。受试者在额头上戴上F NIRS传感器(IR光源和安装在柔性带中的检测器),该传感器检测前额叶皮层中的氧气水平,并为氧气 - 血红蛋白和脱氧血红蛋白提供实时值。它提供了氧气变化的连续和实时显示,因为受试者执行了不同的任务。主题可以坐在计算机前,进行测试或执行移动任务。它与刺激呈现系统和Biopac的虚拟现实产品集成。强大的F NIR光谱成像工具测量有或没有氧气的血红蛋白血液中NIR光吸光度,并提供了类似于功能性MRI研究的正在进行的脑活动的信息。它消除了F MRI的许多缺点,并为认知功能评估提供了安全,负担得起的无创解决方案。该技术通过为研究设计提供更大的灵活性,包括在复杂的实验室环境中工作,并在非传统的实验室地点进行现场研究。
高的问题,在全面进入 2D 数字屏幕界面阶段后,飞 机座舱只有少数的传统机械仪表被保留,大部分的飞 行信息数据都由计算机分析后再在主飞行显示器 ( PFD )上显示出来,这种获取信息的方式大大增强 了飞行员驾驶的安全性。平视显示器( HUD )是飞机 座舱人机交互界面的另一种形式。 HUD 可以减少飞 行技术误差,在低能见度、复杂地形条件下向飞行员 提供正确的飞行指引信息。随着集成化和显示器技术 的不断进步, 20 世纪末至今,飞机座舱有着进一步 融合显示器、实现全数字化界面的趋势。例如,我国 自主研发生产的 ARJ21 支线客机、 C919 民航客机, 其座舱的人机界面设计均采用触控数字界面技术代 替了大部分的机械仪表按钮 [2] 。 20 世纪 70 年代,美军在主战机上装备了头盔显 示系统( HMDs ),引发了空中战争领域的技术革命。 在虚拟成像技术成熟后,利用增强现实( AR )技术 可以直接将经过计算机运算处理过的数据和图象投 射到驾驶员头盔的面罩上。例如,美国 F-35 战斗机 的飞行员头盔使用了虚拟成像技术,将计算机模拟的 数字化信息数据与现实环境无缝融合,具有实时显示 和信息叠加功能,突破了空间和时间的限制。 20 世纪 90 年代,美国麦道飞机公司提出了“大 图像”智能化全景座舱设计理念,之后美国空军研 究实验室又提出了超级全景座舱显示( SPCD )的概 念,充分调用飞行员的视觉、听觉和触觉,利用头 盔显示器或其他大屏幕显示器、交互语音控制系统、 AR/VR/ MR 系统、手 / 眼 / 头跟踪电子组件、飞行员 状态监测系统等,把飞行员置身于多维度的显示与 控制环境中。此外,在空间三维信息外加上预测信 息的时间维度功能也是未来座舱显示器的发展趋势 [3] 。 2020 年,英国宇航系统公司发布了一款第六代 战斗机的概念座舱,去除了驾驶舱中所有的控制操 作仪器,完全依靠头盔以 AR 形式将操作界面显示 出来。由上述分析可知,未来基于 XR 环境下的虚拟 增强型人机界面将成为飞机座舱人机交互的全新途 径之一。 在学术界,有关飞机座舱人机交互界面的研究也 取得了较为丰硕的成果,其中代表性研究成果见表 1 。
视频通话应用程序提供实时视频、音频、聊天和桌面共享渠道,使人们能够远距离建立和维持关系,这在此次 COVID-19 疫情应对中变得非常重要。我们之前的研究 [23] 表明,自闭症成年人在视频通话中会经历巨大的压力,这是由感官过度刺激、认知超负荷和焦虑造成的。为了减少因每个交谈者读取和回应对话伙伴的情绪状态而造成的认知负荷和焦虑,我们开发了一个人工智能计算机视觉系统来检测面部表情并在通话过程中实时显示在屏幕上。我们开发了两种模式;第一种是“表达镜”,它可以读取自闭症患者的面部表情并将其显示给(仅)他们,以反馈他人可能如何看待他们的表情,帮助他们感到更舒服、更好地被理解。第二种是“表达假肢”,它可以读取自闭症患者对话伙伴的面部表情并将其显示给自闭症患者,以帮助他们在对话过程中更轻松地读取和做出反应。在本文中,我们仅关注设计、开发和评估表现力镜的经验。图 1 显示了表现力镜向左侧用户提供反馈,说明神经正常的人如何解读他的面部表情。我们采用了一种迭代设计方法,使用绿野仙踪原型技术向五名自闭症成年人展示了原型概念。然而,当我们构建了一个工作原型并与自闭症用户一起测试时,他们的负面反馈促使我们重新考虑其设计。我们反思了人工智能 (AI) 和人机交互 (HCI) 的设计问题、可访问性中的人工智能、为具有不同能力的人设计的绿野仙踪原型以及可访问性设计的一般问题。
Lenox 火焰加热器摄像系统专为高温环境设计,并有 90 多年的经验作为后盾,它可以查看加热器内部,并在彩色监视器上每天 24 小时、每年 365 天实时显示所见内容。其可靠性能记录是当今任何其他系统都无法比拟的,并且还提供两年保修!Lenox 风冷火焰加热器摄像系统适用于高达 3000°F (1649ºC) 的应用,只需要 2 - 3/8 英寸 (61 毫米) 的墙壁穿透深度,并提供业内最高的图像清晰度。光量控制功能是 Lenox 独有的,由位于炉镜头中的遥控电动光圈组成。通过光量控制,操作员可以轻松调整传输到摄像机的光量,消除其他系统常见的耀斑/光晕,并确保高质量图像。该系统采用石英光学元件,这是 Lenox 的另一项独家技术,可承受高达 1200ºF (649ºC) 的温度,比其他系统中使用的玻璃透镜高。压缩空气冷却系统提供可靠的性能,同时消耗的空气比竞争系统少得多。墙盒安装组件为系统提供了保护外壳,并充当主冷却剂罩。(有关便携式系统,请参阅便携式诊断系统手册)。可选的系统附件包括自动缩回系统,该系统在发生冷却损失时自动将火焰加热器摄像机拉回,防止炉镜头组件可能因过热而损坏;高效压缩空气过滤系统,用于去除油、水和颗粒,为摄像系统提供清洁空气;以及彩色 LCD 视频监视器和数字视频录像机。