神经网络回归已有 10 年。在这一周年纪念日的推动下,我们对人工智能 (AI) 采取了整体视角。认知任务的监督学习得到了有效解决——前提是我们拥有足够高质量的标记数据。然而,深度神经网络模型不易解释,因此黑盒和白盒建模之间的争论成为了焦点。注意力网络、自我监督学习、生成建模和图神经网络的兴起拓宽了人工智能的应用空间。深度学习也推动了强化学习作为自主决策系统核心构建块的回归。新人工智能技术可能带来的危害引发了透明度、公平性和问责制等社会技术问题。控制人才、计算资源以及最重要的数据的大型科技公司在人工智能领域的主导地位可能会导致人工智能的极端分化。尽管人工智能驱动的对话代理最近取得了戏剧性和出人意料的成功,但备受瞩目的旗舰项目(如自动驾驶汽车)的进展仍然难以捉摸。必须小心调节该领域的言论,并使工程进步与科学原理保持一致。
R关于地球观察研讨会计算机视觉系列的研讨会。WACV 2025。r人类决策系统中的人类对齐。IEEE CAI2025。R首次关于人工智能,公共政策和国家安全的研讨会。伯克利AI研究。2024。R地球系统建模的机器学习研讨会。ICML2024。R关于复杂评估深度学习和肉类挑战的研讨会。WACV 2024。关于人道主义援助和灾难反应的人工智能第六次研讨会。Neurips 2023。r第五次关于人道主义援助和灾难反应的人工智能研讨会。ICCV2023。R太空工业基础2023年。R第四届人工智能援助和灾难响应的研讨会。Neurips 2022。r关于人道主义援助和灾难反应的人工智能第三次研讨会。Neurips2021。R第二次关于人道主义援助和灾难反应的人工智能研讨会。Neurips 2020。用于数据发现和重用研讨会的人工智能。开放科学研讨会2020年。R软件硬件代码用于机器学习工作负载研讨会。mlsys 2020。人工智能援助和灾难反应研讨会的人工智能。Neurips2019。
神经网络回归已有 10 年。在这一周年纪念日的推动下,我们对人工智能 (AI) 采取了整体视角。认知任务的监督学习得到了有效解决——前提是我们拥有足够高质量的标记数据。然而,深度神经网络模型不易解释,因此黑盒和白盒建模之间的争论成为了焦点。注意力网络、自我监督学习、生成建模和图神经网络的兴起拓宽了人工智能的应用空间。深度学习也推动了强化学习作为自主决策系统核心构建块的回归。新人工智能技术可能带来的危害引发了透明度、公平性和问责制等社会技术问题。控制人才、计算资源以及最重要的数据的大型科技公司在人工智能领域的主导地位可能会导致人工智能的极端分化。尽管人工智能驱动的对话代理最近取得了戏剧性和出人意料的成功,但备受瞩目的旗舰项目(如自动驾驶汽车)的进展仍然难以捉摸。必须小心调节该领域的言论,并使工程进步与科学原理保持一致。
神经网络回归已有 10 年。在这一周年纪念日的推动下,我们对人工智能 (AI) 采取了整体视角。认知任务的监督学习得到了有效解决——前提是我们拥有足够高质量的标记数据。然而,深度神经网络模型不易解释,因此黑盒和白盒建模之间的争论成为了焦点。注意力网络、自我监督学习、生成建模和图神经网络的兴起拓宽了人工智能的应用空间。深度学习也推动了强化学习作为自主决策系统核心构建块的回归。新人工智能技术可能带来的危害引发了透明度、公平性和问责制等社会技术问题。控制人才、计算资源以及最重要的数据的大型科技公司在人工智能领域的主导地位可能会导致极端的人工智能鸿沟。尽管最近人工智能驱动的对话代理取得了戏剧性和出人意料的成功,但自动驾驶汽车等备受瞩目的旗舰项目的进展仍然难以捉摸。必须注意缓和围绕该领域的言论,并使工程进展与科学原理保持一致。
摘要 - 强化学习(RL)已成为复杂环境中自动决策的有效范式。但是,在RL中,事件驱动的决策过程的集成仍然是一个挑战。本文介绍了一种新颖的体系结构,将离散事件监督(DES)模型与标准RL框架相结合,以创建混合决策系统。我们的模型利用了DES的能力来管理基于事件的动态,而RL代理对连续状态和行动的适应性,从而促进了以连续和离散事件为特征的系统中更强大,更灵活的控制策略。DES模型与RL代理一起运行,通过基于事件的见解来增强策略的性能,而环境的状态过渡则由机械模型约束。我们通过模拟证明了方法的功效,这些模拟显示出比传统RL实现的性能指标的改进。我们的结果表明,这种综合方法对从工业自动化到智能交通系统的应用有望在离散事件处理至关重要的情况下。索引术语 - 预言学习,离散事件超级访问控制,混合系统,自主决策,事件驱动的动态
摘要 法律与信息技术的研究本身就存在矛盾,即技术发展迅速,包含国际化、全球化等概念,而传统法律对技术发展的反应大多较慢,且主要局限于国界。然而,法治概念无视法律受国界束缚的现象,并受到全球认可。然而,人工智能(AI)技术发展对法治的严重威胁迫在眉睫。随着人工智能学科的长足进步,这项技术开始进入数字决策系统,并实际上取代了人类决策者。这种发展的一个主要例子是使用人工智能协助法官做出司法裁决。然而,在许多情况下,这项技术是一个“黑匣子”,这主要是因为它的复杂性,也是因为它受到法律保护。这种缺乏透明度以及理解这些系统运作的能力下降,而这些系统越来越多地被治理结构使用,这对支撑法治的传统观念提出了挑战。这对于与法治特别相关的概念尤其如此,例如透明度、公平性和可解释性。本文探讨了人工智能技术与法治的关系,强调法治是人类繁荣的一种机制。它调查了随着人工智能在社会中根深蒂固,法治被削弱的程度,并质疑人工智能在技术官僚社会中能生存到何种程度。
自动决策系统(“ADM”),无论是采用人工智能、机器学习还是其他算法过程,在现代生活中都已无处不在,但它们的使用通常不为社会所注意或看不见。目前,没有联邦法律要求在使用 ADM 收集个人数据、评估个人数据或对其生活做出决定时向个人发出通知或披露信息。这对于雇佣关系来说尤其令人担忧,因为通知和透明度对于个人隐私至关重要,而秘密使用 ADM 系统会使申请人和雇员无法了解雇主的决策过程并根据适用的反歧视法寻求补救。一些州和地方政府已经认识到这种危险,并已采取初步措施保护申请人和雇员,而欧盟已提出一项全面的人工智能法规,将管理此类系统在那里开发的所有阶段。本文提出了一种基于通知和透明度的监管体系,该体系考虑到管理雇佣关系的现有法律并对这些法律进行补充,以建立一个促进申请人和雇员权利的法律框架,同时也允许灵活地开发有利于雇员、雇主和社会的 ADM 系统。
1.2 Shun 先生强调了此次会议的重要性,并指出此次会议与国际民航组织气象部门会议联合举行,上一次会议是在 12 年前举行的。他感谢国际民航组织主办 CAeM 本次会议。主席回顾说,国际民航组织气象部门联合会议已商定了未来 15 年或更长时间的航空气象升级计划,气象界需要作出回应。他强调,有效的治理和成本回收、提高效率和有能力的航空气象人员仍将是确保服务符合既定要求的基础。此外,委员会应确定人类预报员和观察员如何在全系统信息管理环境中增加价值,如何将气象信息整合到用户的决策系统中,以及如何将研究成果投入到业务应用中。 Shun 先生补充说,加强与航空用户的伙伴关系、与会员和区域协会进行更有效的沟通、能力建设、分享最佳实践和提供指导材料,也是未来航空气象服务取得成功的关键。他鼓励与会者注意 WMO 执行理事会在 3 月 23 日举行的会议上就联合会议和 CAeM-15 相关问题所表明的立场。
在人际层面,至关重要的人类联系、信任和同理心可能会因日益广泛的算法控制形式而丧失。工作场所和公共场所中生物特征监控的日益增多,可能会阻碍或阻止公民行使集会和结社自由,从而消除匿名保护,并对社会凝聚力和民主参与产生寒蝉效应。此外,随着其他形式的自动化社会管理不断增加,它们有可能削弱团结的纽带。这开始体现在算法劳动力和生产力管理工具的广泛部署,以及自动化福利系统和贫困管理制度的兴起,其中预测计算模型被用于分配社会服务、预防和起诉犯罪行为,以及确定个人需要和伤害的风险。正如弗吉尼亚·尤班克斯 (Virginia Eubanks) 所写,这类算法决策系统有可能“向职业中产阶级公众隐瞒贫困,并为国家提供做出非人道选择所需的道德距离”(Eubanks 2018,13)。这种技术可行性有可能将决定公平公正社会应该是什么样子的共同政治责任重新定义为需要通过预测分析和工具化的管理技术来解决的系统工程问题。
基于无人机的系统的挑战之一是车载电池的容量有限。为了克服机载电池容量的限制,本文介绍了一种智能的决策系统,用于自动着陆和充电过程。该系统旨在充电排干电池并延长飞行持续时间。基于红外发光二极管(LED)检测和标记识别。在这项研究中精心设计和使用了一个具有二十个红外LED和八个条形码的新型着陆垫。着陆过程分为两个阶段。在第一阶段,由配备红外通滤波器的摄像机观察到LED,而在第二阶段中,两个像素摄像机观察到条形码。将无人机降落在适当的极性上,然后开始充电过程,这是一种基于OTSU阈值方法的基于层次视觉的自主着陆算法(HVALA)和高斯(LOOD)操作员的Laplacian。整个系统是通过一系列自动驾驶飞行设计和测试的。在着陆过程的最后阶段获得的实验结果证实了系统的可行性和鲁棒性,在该系统平均观察到4.4厘米的较小误差为4.4厘米,最大着陆时间为10秒。在本应用程序中可以接受此类错误,并导致较高的着陆成功率。