上个月,Kudan 参加了在圣何塞举行的 NVIDIA GPU 技术大会 (GTC) 和 Jetson 合作伙伴日。这是一个绝佳的机会,可以亲自了解生成式人工智能和更广泛的机器人领域的最新发展,加深我们对 NVIDIA 对市场趋势的看法,并推进与 NVIDIA 机器人团队和其他潜在合作者的合作。目前,NVIDIA 的大部分增长都集中在数据中心,反映了生成式 AI 的现状,其中计算密集型模型占主导地位。大规模语言模型 (LLM) 通常具有数十亿个参数,而 GPT-4 等最新进展估计将达到万亿个参数大关。 然而,谈到机器人加速计算和边缘计算,我们仍处于早期阶段。小型语言模型 (SLM) 和微型视觉语言模型 (VLM) 可以在 NVIDIA Jetson 设备(包括 Orin Nano)上运行。然而,边缘计算机预计要处理多项任务,而且机器人和边缘设备执行的任务的关键性要求对错误的容忍度要低得多。聊天机器人可以犯一些错误,但仍然可以为用户提供价值,但是当机器人犯错时,代价可能是灾难性的。 NVIDIA 对边缘计算和机器人技术的未来的乐观前景正在指导我们在这些领域的战略投资。尽管目前还处于早期阶段且面临诸多挑战,但边缘人工智能的市场机会无疑是巨大的。尽管这一市场扩张的时机仍不确定,但它所代表的机遇规模却是显而易见的。
Rebecca Albrow(英国国家健康与护理卓越研究所),Francis Arickx(Riziv - Inami - 国家健康与残疾保险研究所 - 国家D'Assurance Maladie-Invaliditité) Z Gent),Thierry Christiaens(U Gent),Corinne Collignon(法国HauteAutoritéDeSanté),Marcel Doms(Ku Leuven),史蒂夫·埃格勒姆(Famhp德国医疗保健质量和效率研究所),休伯特·加米奇(HAS),西尔维奥·加拉蒂尼(Mario Negri Institute),克里斯蒂安·格鲁德(丹麦哥伦哈根试验单元)骑士(尼斯),Veerle Labarque(Bioethics UZ Leuven),Trudo Lemmens(多伦多大学,卫生法大学,加拿大卫生法和政策),Mihaela Matei(欧洲基础设施法律专家,CCRIN),ID MC MC GAURAN,HPRA - HPRA - HELLED PRODUCTION PRODUCTS CORPARY PRODUCTS CORPARYS MERANGOLODY MERING(IRELAND),lydie MELIUM(lydie MER),OYY(OYY),OYUS,OYUS,OYUS,OOY,ORIN奥斯陆,挪威),帕特里克·米克(Institut Jules Bordet),Rob Nelissen(Lumc - Leids医科大学,亚历山大德国,荷兰),康纳(HPRA),ValérieParis(Has) (UMIT - 健康科学大学,医学信息学和技术大学,蒂罗尔,奥地利卫生信息中心的大厅 - 爱尔兰四重奏),Marc van de Casteele(Riziv - Inami),Martine van Hecke(Testaankoop)(Testaankoop),Claudia Wild(AIHTA - AIHTA - 奥地利HTA,奥地利,奥地利,奥地利,奥地利)
摘要 发现和分类脑肿瘤是医学图像分析的重要组成部分,需要先进的深度学习方法和优化算法。认识到脑肿瘤诊断迫切需要准确的方法,我们提出了一种综合方法,整合了包括数据预处理在内的各个阶段。在这个预处理阶段,我们采用长宽比归一化和调整大小等技术来形成标准化数据集。通过标准化图像尺寸,我们旨在改进后续过程,如特征提取和分割,减少潜在的扭曲。建议的模型是使用卷积神经网络 (CNN) 来寻找使肿瘤和非肿瘤区域彼此不同的模式和特征。为了克服下采样过程中的复杂部分和精细纹理,提出的模型与 U-Net 架构混合,可提供 98% 的准确和稳健结果。此外,使用交并比 (IOU) 来测量 Dice 系数,以确保它是否对类别不平衡具有鲁棒性。这显示了一个直观的解释,0.83 和 0.9 的较高值表示强大且更好的分割性能。该模型使用 VGG-16 进一步开发,以对肿瘤等级进行分类。在准确分割肿瘤等级方面,从分割的肿瘤照片中得出的相关特征提供了 73% 的满意度。为了克服复杂性和过度拟合问题,蝴蝶优化算法与 VGG-16 混合,从而在等级分类中提供增强的输出。所提出的模型在肿瘤和非肿瘤识别和分类方面优于其他机器学习 (ML) 和深度学习 (DL) 方法,准确率为 99.99%。为了进一步评估所建议模型的性能、移动性和能源经济性,它还在 JETSON Orin 硬件中实现。
在精确的牲畜种植中,牛的个体识别对于为赋予动物福利,健康和生产力做出的决定提供了至关重要的。在文字中,存在可以读取耳罩的模型;但是,它们不容易携带到现实世界中的牛生产环境,并主要在静止图像上做出预测。我们提出了一个基于视频的牛耳牌阅读系统,称为deRmycow,该系统利用视频中的节奏特性来准确检测,跟踪和读取边缘设备上25 fps的牛耳标。对于视频中的每个帧,ReDmycow在两个步骤中发挥作用。1)标签检测:Yolov5s对象检测模型和NVIDIA DEEPSTREAM跟踪层检测并跟踪存在的标签。2)标签读数:小说whentoread mod-ule决定是读取每个标签,使用trba场景文本识别模型或使用从前框架上读取的读数。该系统是在边缘设备上实现的,即NVIDIA JETSON AGX ORIN或XAVIER,使其可移植到没有外部计算资源的牛生产环境中。要达到实时速度,请阅读 - MyCow仅在当前框架中读取检测到的标签,如果它认为在当前框架中明显改善决策时,它将获得更好的读数。理想情况下,这意味着即使标签被遮挡或模糊,也可以在视频中找到标签的最佳读数并存储在视频中。在真正的中西部奶牛场住房测试该系统时,9,000头母牛,雷米科(Demmycow)系统准确地阅读了96.1%的印刷耳廓,并证明了其现实世界中的商业潜力。devmycow为商业牛农场提供了知情的数据驱动决策流程的机会。