强化学习和决策是一门三学分的课程,即强化学习和决策。强化学习是机器学习的一个子区域,与计算文物有关,通过经验来修改和改善其性能。强化学习的一个关键区别是用于训练模型的数据通常以模型本身通常收集的反复试验体验的形式出现。本课程重点介绍可以通过经典论文和最新工作的结合以编程方式学习控制政策的算法。它研究了它们存在的有效算法,以便单身和多代理计划以及从经验中学习近乎最佳决策的方法。主题包括马尔可夫决策过程;动态编程方法;基于价值的方法;马尔可夫决策过程部分可观察到;基于策略的方法;随机和重复的游戏;分散的部分可观察到的马尔可夫决策过程;和多代理方法。班级对概括,探索,表示和多代理系统的问题特别感兴趣。
•循环经济和可持续性:经济竞争性的生产过程和产品,关键材料和/或能源,以减少,替代和/或重用资源和/或以可持续性以及环境友好的过程和/或技术为目标。还包括饮用水,水净化,水生化,灌溉技术以及水技术亚区域的废水处理与管理。•数字转换(智能移动性,智能电网,智能城市等)。•数字健康和医疗设备:包括移动健康(MHealth),健康信息技术(IT),可穿戴设备,远程医疗和远程医疗以及个性化医学等类别。•农业和食品技术:竞争性,可持续的技术和应用,以改善农业,水产养殖和食品生产,供应链,包括冷工程/冷链技术,分销渠道,直到最终消费者和循环周期/终止生命(食品安全,农业,农业和食品处理技术,加工和包装技术)。•任何其他共同利益的部门。
机场分区包括机场客运航站楼、航站楼道路区域、飞机场和其他支持设施,其中大部分由波特兰港拥有和运营。还包括其他机场相关用途,这些用途通常是港口的租户。机场分区内有两个未绘制的区域,称为空侧和陆侧(参见第 33.910 章,定义)。空侧包括由周边安全围栏定义的区域和与飞机场相关的空侧用途,包括跑道、滑行道、照明等。周边安全围栏未绘制在地图上,因为围栏可能会根据联邦和运营要求随时间移动。围栏外的区域(跑道保护区)也是空侧的一部分。由于联邦法规,飞机场和空侧用途也以不同的方式处理。陆侧包括客运航站楼、机场通道、停车场、飞机维修设施、货运机库、维修大楼、消防和救援设施以及其他类似类型的开发。机场分区内还有 SW 象限分区,如地图 565-1 所示。
Related Chicago 8080 LLC 提交的位于 8080 S DuSable Lake Shore Drive 的物业的“水道规划开发”以 15-0-0 的投票结果获得批准(Brumfield 回避,La Spata 和 Sicho-Lopez 弃权)。申请人提议将该物业从住宅-商业规划开发区 1162 号、B2-3 社区购物区;B3-5 社区购物区;RS-1 住宅单户住宅(独立屋)区;RT-4 住宅双层公寓、联排别墅和多单元区;RM-5、RM5.5、RM-6 和 RM-6.5 住宅多单元区;M1-1 有限制造/商业园区;M3-3 重工业区;以及规划制造区 (PMD) 6 号,首先是 C3-5 商业、制造和就业区,然后是水道规划开发。计划中的开发将允许分阶段重新开发该物业,包括量子计算创新中心以及其他商业、工业和相关用途。整个计划开发的总最大容积率为 3.0。开发的第一阶段包括在 F 分区建造量子计算设施以及其他相关附属用途。(#22573,第 7 区和第 10 区)
摘要 - 深度神经网络在大多数计算机视觉问题中一直始终代表最新技术。在这些情况下,较大且更复杂的模型表现出优于较小架构的性能,尤其是在接受大量代表性数据培训时。随着视觉变压器(VIT)架构的最新采用和广告卷积神经网络(CNN),领先的主链体系结构的参数总数从2012年的6200万参数增加到ALEXNET的6200万参数,到2024年AIM-7B的2024年参数。因此,部署这样的深度体系结构在处理和运行时限制的环境中面临挑战,尤其是在嵌入式系统中。本文涵盖了用于计算机视觉任务的主要模型压缩技术,使现代模型可以用于嵌入式系统中。我们介绍了压缩亚地区的特征,比较不同的方法,并讨论如何在各种嵌入式设备上分析它时选择最佳技术和预期变化。我们还共享代码,以协助研究人员和新从业人员克服每个子区域的初始实施挑战,并为模型压缩带来现有趋势。压缩模型的案例研究可在https://github.com/venturusbr/cv-model-compression上获得。索引术语 - 安装系统,模型压缩,知识蒸馏,网络修剪,网络量化
人工智能系统已在各个领域得到广泛应用。与此同时,由于无法完全信任人工智能系统不会伤害人类,因此某些领域的进一步应用受到阻碍。除了公平性之外,隐私、透明度和可解释性也是建立对人工智能系统的信任的关键。正如在描述值得信赖的人工智能 (https://www.ibm.com/watson/trustworthy-ai) 中所述,“信任源于理解。理解人工智能主导的决策是如何做出的以及其中包括哪些决定性因素至关重要。”解释人工智能系统的子领域被称为 XAI。可以解释人工智能系统的多个方面;这些包括数据可能存在的偏差、示例空间特定区域缺少数据点、收集数据的公平性、特征重要性等。然而,除此之外,至关重要的是要有以人为本的解释,这些解释与决策直接相关,类似于领域专家如何根据“领域知识”做出决策,其中还包括完善的、同行验证的明确指南。为了理解和验证 AI 系统的结果(如分类、推荐、预测),从而建立对 AI 系统的信任,有必要涉及人类理解和使用的明确领域知识。当代的 XAI 方法尚未解决能够像专家一样做出决策的解释。图 1 展示了 AI 系统在现实世界中的应用阶段。
软件工程师和研究人员对数字孪生 (DT) 概念的兴趣日益浓厚。作为一个新兴主题,DT 是一个很有前途的范例,可以提高不同领域信息物理系统的可预测性、安全性和可靠性。尽管趋势日益增长,但决定实施 DT 的最佳方法仍然具有挑战性。此外,据作者所知,我们发现,在运输行业,尤其是铁路系统领域,缺乏对 DT 进行的研究,也没有系统的综述。因此,本论文遵循系统的文献综述方法,在四个数字图书馆中确定了 363 篇文章,其中包括 60 篇主要文章,以解决三个研究问题。审查显示,大多数审查文章都集中在铁路分区维护和检查上,DT使能技术人工智能是耦合度最高的技术。深入分析发现,大多数文章将机器学习算法和技术应用于DT中,以检测故障、预测故障、做出自动决策和监控健康状况以优化铁路系统。还发现互操作性是讨论最多的挑战,其难点在于实时传输运营数据并实现实时决策。此外,分析还显示了DT的几个机会和优势,例如降低维护成本和对减少公路货运的积极贡献。最后,根据审查结果,提出并解释了以流程图形式支持设计铁路预测性维护DT的指南。
高光谱成像在空间和频率域中获取数据,以提供丰富的物理或生物信息。然而,传统的高光谱成像具有仪器笨重、数据采集速度慢和空间光谱权衡等内在局限性。在这里,我们介绍了快照高光谱成像的高光谱学习,其中将小子区域中的采样高光谱数据合并到学习算法中以恢复超立方体。高光谱学习利用了照片不仅仅是一张图片,还包含详细光谱信息的想法。小样本的高光谱数据使光谱信息学习能够从红绿蓝 (RGB) 图像中恢复超立方体,而无需完整的高光谱测量。高光谱学习能够恢复超立方体中的全光谱分辨率,可与科学光谱仪的高光谱分辨率相媲美。高光谱学习还可以实现超快动态成像,利用现成智能手机中的超慢速视频录制,因为视频由多个 RGB 图像的时间序列组成。为了证明其多功能性,使用血管发育的实验模型通过统计和深度学习方法提取血流动力学参数。随后,使用传统的智能手机摄像头以高达一毫秒的超快时间分辨率评估外周微循环的血流动力学。这种光谱信息学习方法类似于压缩感知;然而,它还允许使用透明的学习算法进行可靠的超立方体恢复和关键特征提取。这种由学习驱动的快照高光谱成像方法可产生高光谱和时间分辨率,并消除了空间光谱权衡,提供了简单的硬件要求和各种机器学习技术的潜在应用。
强化学习(RL)是机器学习中的一个活跃子区域,已成功应用于解决复杂的决策问题,例如玩棋盘游戏[31,32]和视频游戏[22] [22],自主驾驶[18,21],以及最近,将大型语言模型和文本生成模型与人类的preference preferfection and-to anclight [18,21]。RL研究主要集中在离散时间和空间中的马尔可夫决策过程(MDP)上。有关MDP的理论和应用的详细说明,请参见[34]。Wang,Zariphopoulou和Zhou [40]是第一个使用受控扩散过程的RL制定和开发RL的熵调查的,探索性控制框架的人,该过程固有地与连续状态空间和可能的连续作用(可能连续的动作(控制)空间)。在此框架中,随机放松控制被用来表示探索,从而捕获了RL核心的“反复试验”概念。随后的工作旨在通过Martingale方法[14、15、16]和政策优化在连续时间内为无模型RL奠定理论基础[44]。在这里,“无模型”是指潜在的动力学是扩散过程,但是它们的系数以及奖励函数是未知的。[14,15,16]的关键见解是,可以从基于连续时间RL的Martingale结构中得出学习目标。这些论文中的理论结果自然会导致一般RL任务的各种“无模型”算法,因为它们直接直接学习最佳策略而无需尝试学习/估计模型参数。这些算法中的许多算法恢复了通常以启发式方式提出的MDP的现有RL算法。然而,对MDP的RL研究占据了中心阶段的算法的融合和遗憾分析仍然缺乏扩散率。To our best knowledge, the only works that carry out a model-free convergence analysis and derive sublinear regrets are [12] for a class of stochastic linear–quadratic (LQ) control problems and [11] for continuous-time mean–variance portfolio selection, both of which apply/apapt the policy gradient algorithms developed in [15] and exploit heavily the special structures of the problems.本文的目的是通过对[16]中引入的(小)Q学习的定量分析以及通常非线性RL问题的相关算法来填补这一空白。(big)Q-学习是离散时间MDP RL的关键方法,但Q功能在连续的时间内崩溃,因为它不再依赖于时间步长无限时间小时的操作。[16]提出了Q功能的概念,Q功能是Q功能在时间离散化方面的第一阶导数。