本文件介绍了监测非洲民航委员会成员国在实施特定安全系统或举措(如区域安全目标)时所取得进展的方法和战略。该机制以国际民航组织全球航空安全计划 (GASP) 和全球空中航行计划 (GANP) 为基础,并纳入了基本的关键绩效推动因素,以确保成员国有效实施安全系统/举措。它利用信息技术工具和其他管理技术作为确保有效监测安全目标所需的基本框架的一部分。阿布贾安全目标是非洲国家主动安全管理实施的一部分,每个目标都有一个未来的实施日期。为了让非洲国家成功实施所有安全目标和宗旨,安全绩效推动因素,即标准化、资源和安全信息交换技术已同时在区域和国家层面实施。
摘要:在本文中,我区分了人工智能 (AI) 背景下可能出现的三种危害:个人危害、集体危害和社会危害。社会危害常常被忽视,但不能归结为前两种危害。此外,应对人工智能引起的个人和集体危害的机制并不总是适合应对社会危害。因此,政策制定者对当前人工智能法律框架的差距分析不仅存在不完整的风险,而且为弥补这些差距而提出的新立法提案也可能无法充分保护受到人工智能不利影响的社会利益。通过概念化人工智能的社会危害,我认为需要从个人角度转变视角,转向人工智能的监管方法,以解决其对整个社会的影响。借鉴专门旨在保护社会利益的法律领域——环境法,我确定了欧盟政策制定者在人工智能背景下应考虑的三种“社会”机制。这些涉及 (1) 提高问责制的公共监督机制,包括强制性影响评估,并提供提供社会反馈的机会; (2) 公共监督机制,以确保有关人工智能社会影响的独立信息收集和传播;(3) 引入具有社会维度的程序性权利,包括获取信息、获得司法公正和参与人工智能公共决策的权利,无论个人是否受到伤害。最后,我会考虑欧盟委员会关于人工智能监管的新提案在多大程度上考虑到了这些机制,然后再做最后总结。
2025年1月15日,斯蒂芬妮·韦纳国家电信和信息管理局首席顾问美国商务部1401宪法大街西北,华盛顿特区,哥伦比亚特区,20230年,主题:使用Pervasive Data请求通过法规进行评论的伦理指南。241204-0309向Weiner女士来说,我们是密歇根大学,Ann Arbor大学的计算机科学与工程研究人员,我们很高兴有机会提供评论,以回应NTIA的评论请求(RFC),以了解“使用广泛数据研究的研究指南”。 我们的专业知识涵盖了人工智能系统的最终用户评估以及在金融,演出工作和健康等领域中对人工智能系统的最终用户评估以及AI的道德和负责任的设计和使用的计算,定性和定量研究。 通过我们的工作,我们广泛参与了普遍的数据研究,尤其是在传统监督机制(例如机构审查委员会(IRB))可能不适用的情况下。241204-0309向Weiner女士来说,我们是密歇根大学,Ann Arbor大学的计算机科学与工程研究人员,我们很高兴有机会提供评论,以回应NTIA的评论请求(RFC),以了解“使用广泛数据研究的研究指南”。我们的专业知识涵盖了人工智能系统的最终用户评估以及在金融,演出工作和健康等领域中对人工智能系统的最终用户评估以及AI的道德和负责任的设计和使用的计算,定性和定量研究。通过我们的工作,我们广泛参与了普遍的数据研究,尤其是在传统监督机制(例如机构审查委员会(IRB))可能不适用的情况下。
本文探讨了人工智能 (AI) 遏制问题,特别是针对为通用人工智能 (AGI) 和超级智能创建有效保障措施的挑战。我认为,完全控制(定义为完全可预测人工智能行为并完全遵守安全要求)是无法实现的。本文回顾了五个关键约束:不完整性、不确定性、不可验证性、不可计算性和不可纠正性。这些限制基于逻辑、哲学、数学和计算理论,例如哥德尔不完备定理和停机问题,它们共同证明了遏制人工智能是不可能的。我认为,不应追求完全遏制人工智能,而应将资源分配给风险管理策略,这些策略承认人工智能的不可预测性并优先考虑自适应监督机制。
摘要 时间就是金钱,金钱就是时间。当今社会的货币价值与时间的使用有着内在联系,因此也与管理会计流程息息相关。高效利用时间等同于创造尽可能多的剩余价值或利润。为了实现这一目标,许多经理引入了监督机制以进行纪律约束。本研究对“时钟文化”进行了历史阐述,并分析了三家专业会计师事务所的时间表报告系统的细节。虽然有时可以实现为实施这些系统而赋予的合理、明确的作用,但似乎还有其他力量在推动这一过程。这些力量可以用福柯的权力框架来阐述。通过纪律的视角来分析,时间记录过程变得更加清晰;这是一个既普遍又自我维持的纪律过程。