在过去的 12 个月中,NOVA 再次展现出非凡的科学成就,这一点可在事实和数据部分中看到。然而,鉴于 2024 年是校长任期的最后一年,回顾和反思 NOVA 在过去 6-7 年中在卓越性和影响力方面的发展也是有意义的(由于 2017 年获得基金会地位,我们只有 2018 年以来的可靠指标)。值得注意的是,NOVA 的研究人员能够将获得的资金几乎翻一番,从 2018 年的 3300 万欧元增加到 2023 年的 6500 万欧元,国际资金几乎增加了两倍。与此同时,经过验证的出版物数量增加了 36%,同时保持了高于国际平均水平 33% 的标准化影响力,其中 50% 的出版物来自国际合作。在第三个任务中,这些成就表明了对社会和经济影响的明确导向。 NOVA 参与了 12 个 CoLAB,而与公司签订的研发合同资金在过去 7 年中增加了一倍多。现在,每年有近 5000 名学生参加创业教育,而 2018 年只有 1145 名,NOVA 还获得了多项国家级
摘要。本文介绍了一种基于深度学习的系统,用于实时面罩检测,旨在增强面具合规性至关重要的环境中的公共卫生监测。利用卷积神经网络(CNN)用Tensorflow和Keras构建,模型E ff e ff e ff将工具分类为戴面膜或不戴面膜的模型。数据预处理和八月技术提高了各种输入信息的鲁棒性,从而确保了高性能和概括性。在Google Colab上开发的,该系统利用基于云的资源进行E FFI CIENT模型培训和部署,从而消除了对当地大量硬件的需求。它支持实时图像分析,可扩展用于连续视频监视,使其适用于大规模应用。与Google Drive集成简化了数据管理,简化了更新和部署。该系统提供了一种可访问的解决方案,用于在公共空间中掩盖合规性监视,OFF的准确性,可扩展性和易于部署性。future工作将专注于通过掩码类型的多类分类,自动响应的IoT集成以及Edge设备部署以提高可访问性。该工具展示了AI在促进公共环境中的健康和安全方面的潜力。
摘要:KITSUNE 卫星是一个由 6 个单元组成的立方体卫星平台,主要任务是在低地球轨道 (LEO) 上进行 5 米级地球观测,有效载荷采用 31.4 MP 商用现成传感器、定制光学器件和相机控制板开发。尽管有效载荷是为地球观测而设计的,并以捕捉地面上的人造图案为主要任务,但计划通过卷积神经网络 (CNN) 方法对野火图像进行分类作为次要任务。因此,KITSUNE 将成为第一颗使用 CNN 对 LEO 野火图像进行分类的立方体卫星。在本研究中,卫星上采用了深度学习方法,通过预处理而不是在地面站执行图像处理的传统方法,以减少下行链路数据。 Colab 中生成的预训练 CNN 模型保存在 RPi CM3+ 中,其中,上行链路命令将执行图像分类算法并将结果附加到捕获的图像数据上。地面测试表明,在使用 MiniVGGNet 网络对卫星系统上运行的野火事件进行分类时,它可以实现 98% 的总体准确率和 97% 的 F1 得分成功率。同时,还比较了 LeNet 和 ShallowNet 模型,并在 CubeSat 上实施,F1 得分分别为 95% 和 92%。总体而言,这项研究展示了小型卫星在轨道上执行 CNN 的能力。最后,KITSUNE 卫星将于 2022 年 3 月从国际空间站部署。
抽象目标识别是军事事务的优先事项。有必要识别移动的对象,不同的地形和景观创造识别障碍,这使此任务变得复杂。作战动作可以在一天中的不同时间进行,因此必须考虑照明角度和一般照明。有必要通过分割视频帧并识别和对其进行分类来检测视频中的对象。在工作中,作者提出了通过人工智能使用在拟议的信息技术框架内开发目标识别模块作为消防系统的组成部分。Yolov8模式识别模型家族用于开发目标识别模块。数据是从开源来源收集的,特别是从YouTube平台上的开源源中发布的视频录像。数据预处理的主要任务是在视频或实时-APC,BMP和TAMP上对三类对象进行分类。数据集是基于标记工具以及随后的增强工具的Roboflow平台形成的。数据集由1193个唯一图像组成 - 每个类别均匀。使用Google Colab资源进行培训。采用100个时代来训练模型。根据MAP50(平均平均精度为0.85),MAP50-95(0.6),精度(0.89)和召回(0.75)指标进行分析。这将是下一步。也有必要扩大军事设备对象的分类。存在巨大的损失,因为在研究中未考虑背景 - 基于未经技术的背景的验证数据(图像)训练模块。
根据A/Res/78/128的认可的非政府组织和利益相关者组织的合并清单,根据2024年11月1日,根据2024年11月1日,国家环境预测“ NGO”“ NOGO”“ GREENWOMEN”“ GREENWOMEN”“ GREENWOMEN”分析环境机构[Jordan Eniventer [Jordan Eniventer [Jordan Eniventer] Century Frontiers 21st Century News 22 Four 3 TOP FISH FARM VENTURES 350 Ghana Reducing Our Carbon (350 G-ROC) 350 Vermont 350.org 50by40 A Rocha Ghana A Rocha International A Seed Japan A4F, ALGA FUEL, S.A ABANCA Corporación Bancaria S.A. ABB AB Abioyes & Sons Farm Ventures ABN AMRO Bank Abreu Advogados Absolutum Solel Pte Ltd Abyssal SA Academia de Saberes de Aveiro Academia del Mar Academic Youth Ecological Club Academie de l Eau (Water Academy) Academy of Ghandian Studies Academy of Sciences of the USSR Acao Voluntaria de Atitude dos Movimentos por Transparencia Social Acção Democratica Feminina Gaucha/Friends of the Earth (Brazil) Accenture Development Partnerships Accerus, School Stellenbosch UniversityAcciónecologica accipicion para lapromociónde ambientes libres dabaco acdi/vocaachascodaç(Para Praa Praa praa praa praa pra pra pra pra pra pra para para pra pra pra pra pra pra prapare op recursos
通讯作者:星期日。导航日常生活成为一项艰巨的任务,挑战与寻找放错位置的个人物品并意识到其环境中的对象以避免碰撞。这需要需要自动解决方案来促进对象识别。虽然传统的方法,例如导犬,白色的甘蔗和盲文提供了有价值的解决方案,但最近的技术解决方案,包括基于智能手机的识别系统和便携式相机,但遇到了诸如与文化特异性,设备特异性和缺乏系统自治有关的限制。这项研究通过引入卷积神经网络(CNN)对象识别系统的限制解决了解决方案,该解决方案旨在集成到一个移动机器人中,该机器人旨在作为视觉障碍者的机器人助手。机器人助手能够在狭窄的环境中四处走动。它将覆盆子PI与一个编程的摄像头结合在一起,以识别三个对象:手机,鼠标和椅子。一个卷积神经网络模型进行了训练以供对象识别,其中30%用于测试。使用Google Colab中的Yolov3模型进行了培训。对识别系统的定性评估的精度为79%,召回96%,机器人助手的精度为80%。它还包括一个图形用户界面,用户可以轻松地控制机器人助手的运动和速度。发达的机器人助手显着增强了自主权和对象识别,有望在视力受损的个体的日常导航中获得可观的好处。
6 月 1 日至 6 月 3 日(上午 9 点至下午 5 点)– 第 2 个时段 时间和休息时间:在线课程将在上述时间准时开始和结束。学员有责任全程出席课程。根据讲师的指导,课程之间将有几分钟的休息时间。 网速:学员应确保自己有足够的带宽以及每日观看在线课程的配额。我们不对您那边的电源、设备故障或互联网中断的任何问题负责,因为这超出了我们的控制范围。 在线平台:学员有责任为在线平台设置扬声器/麦克风:Teams 和 Google Colab 分别用于理论和实验课程。讲师无法解决个人学员的连接或平台问题。请学员在课程期间关闭音频和视频。但是,他们可以继续在对话的短信部分发布他们的疑问。 疑问:请学员等待讲师开启讨论和问答环节。在课程间使用语音聊天打断学员的疑问并不令人意外。但是,学员可以在评论框中以文本形式发布他们的疑问,讲师将在课程间予以解决。 幻灯片和资源:课程结束后,讲师将把幻灯片、实验室代码和其他资源发送到您注册的电子邮件 ID。 评估:将在第 3 天进行在线测验以评估学员。测验为时 40 分钟,包含 40 道多项选择题(没有负面标记),涵盖研讨会期间讨论的主题。测验将通过 HackerRank 平台进行。因此,请学员使用注册的电子邮件 ID 和正确姓名在 HackerRank 中创建一个帐户。讲师将在第 3 天公布评估链接。
尽管磁共振成像 (MRI) 等诊断成像技术的进步使人们对阿尔茨海默病 (AD) 的诊断和治疗有了更深入的了解,但医疗专业人员仍然需要分析图像,这是一个耗时且容易出错的过程。借助神经网络模型,可以更准确、更有效地做出诊断。在本研究中,我们比较了三种著名的基于 CNN 的算法(AlexNet、Faster R-CNN 和 YOLOv4)的性能,以确定哪一种算法在对 AD 患者的脑部 MRI 扫描进行多类分类时最准确。所使用的数据集来自 Kaggle,包含 6400 个训练和测试 MRI 图像,分为四个类别(非痴呆、非常轻度痴呆、轻度痴呆和中度痴呆)。中度痴呆类别的代表性极低。为了获得更准确的结果,通过数据增强将图像添加到该类别中。实验是使用 Google Colab 的 Tesla P100 GPU 进行的。迁移学习应用于所有三个预训练模型,并根据各自的参数调整数据集。增强后,AlexNet 具有最高的 mAP(平均准确率),100% 的时间检测到感兴趣的对象,而 YOLOv4 和 Faster R-CNN 的 mAP 分别为 84% 和 99%。然而,YOLOv4 在混淆矩阵上表现最佳,尤其是对于 ModerateDemented 图像。正如我们的实验所揭示的,像 YOLOv4 这样的单阶段检测器比像 Faster R-CNN 这样的两阶段检测器更快、更准确。我们的研究成功实现了这些模型,并为医学图像诊断做出了宝贵贡献,为未来的研究和开发开辟了道路。
自然语言处理(NLP)用于大语言模型(LLM)的抽象应用继续随着域生成AI(Genai)的技术进步而继续发展。数据的巨大爆炸,可扩展的计算能力和机器学习创新的可用性,LLM,都导致生成AI(Genai)变得越来越流行。基本模型LLM涉及的主要挑战是它们幻觉的趋势。LLMS中的幻觉是指不一致的不一致的输出,有时是不正确的信息或响应。这是因为大多数LLM经过大量通用数据训练,并且必须使用特定于域和外部数据来增强用于Genai任务,例如聊天机器人,问答,摘要和文本生成。为了应对幻觉的挑战,本研究将以PDF文件的形式利用特定领域的医疗保健数据以及FM来创建检索增强生成(RAG)Chatbot。本研究利用了亚马逊基岩的基础基础模型,Llama 2。我们的特定领域的医疗保健数据来自相关和可靠的来源。使用Python开发了RAG聊天机器人,并使用Rouge和Meteor,评估自动生成的文本评估指标对响应进行了评估。评估是基于三种情况:响应小于250个字符,超过250个字符以及来自多个LLM的响应。关键字 - LLM,亚马逊基岩,Genai,基础模型,Llama2,幻觉。我们的发现提供了有力的证据,表明具有特定数据的基础模型(FMS)可以提高模型在为患者提供可靠的医学知识时的质量。
摘要。目的:本研究旨在分析Instagram上审美摄影中颜色和构图的主要趋势,并探索其对用户互动的影响,特别是喜欢和评论。鉴于视觉美学在数字营销中的作用越来越大,了解这些要素对于旨在最大化参与度的内容创建者,品牌和企业至关重要。与以前关注一般社交媒体参与的研究不同,这项研究使用Atlas.ti整合了技术驱动的定性分析,从而实现了结构化编码和视觉元素的主题识别。方法:在591个Instagram帖子上进行了定性内容分析,该帖子标记为#AmestheticPhotography和#visualaesthetic。使用Instagram刮擦(Phantombuster)收集数据,同时提取视觉(调色板,组成技术)和文本(字幕,元数据)元素。ATLAS.TI软件用于分析重复出现的视觉模式,并通过Google Colab和Python进行了颜色提取,以进行准确性。结果:结果表明,自然色(48.18%)和柔和的音调(30.90%)在美学摄影中占主导地位,由于它们的和谐和平静的效果,促进了更高的参与度。组成技术,例如中心对准(40.51%)和三分之二(23.27%)的规则(23.27%)与用户互动显着相关,因为它们与认知负载理论和视觉感知原理一致。此外,与更长的标题相比,简短的字幕(≤10个单词)在增强参与度,平均获得8,876个赞和4,432条评论方面更有效。新颖性:这项研究弥合了视觉美学和计算分析之间的差距,使用Atlas.ti系统地检查社交媒体趋势。与以前仅关注定量指标的研究不同,该研究提供了对颜色和组成如何影响参与度的定性见解。这些发现为内容创建者,设计师和营销人员提供了实用的指导,这表明强大的视觉组成和色彩和谐可以增强受众的参与度。关键字:审美摄影,视觉趋势,调色板,用户参与,Instagram 2024年9月 / 2025年2月修订 / 2025年2月接受此工作,该工作已在创意共享归因4.0国际许可下获得许可。