本文讨论了当前人工智能技术发展路径的几个潜在经济、政治和社会成本。我认为,如果人工智能继续沿着目前的发展轨迹部署,并且不受监管,它可能会产生各种社会、经济和政治危害。这些包括:损害竞争、消费者隐私和消费者选择;过度自动化工作,加剧不平等,低效压低工资,无法提高工人生产力;以及破坏政治话语,即民主最基本的命脉。虽然没有确凿的证据表明这些成本迫在眉睫或巨大,但在它们完全实现并变得更难甚至无法逆转之前了解它们可能是有用的,这正是因为人工智能前景广阔、潜力巨大。我还认为,这些成本并非人工智能技术本身固有的成本,而是与它们目前的使用和开发方式有关——赋予企业和政府权力,对抗工人和公民。因此,限制和扭转这些成本的努力可能需要依靠监管和政策来重新引导人工智能研究。仅通过促进竞争来遏制它们的尝试可能是不够的。
尽管最近在新西兰的地震破裂主要影响农村地区,但与断层相关的地面变形(位移)对建筑物和基础设施造成了重大损害(Van Dissen等,2012; Van Dissen等,2019;图。1)。Surface deformation also increased the intensity and spatial extent of secondary hazards like landslides (Bloom et al., 2021; Singeisen et al., 2024), river avulsion (Quigley and Duffy, 2020; McEwan et al., 2023), and long-term river and coastal flood susceptibility (Hughes et al., 2015; Quigley and Duffy, 2020; Delano et Al。,2023)。主动断层区与新西兰Aotearoa(NZ)周围的建筑物和关键基础设施相交 - 这些“节点”代表了增强对结构需求的位置以及未来事件中潜在级联生命线失败的来源。但是,在新西兰立法或建筑法规中,目前尚未解决断层表面破裂的危害。
涉及一个或多个健康PEI设施或服务的活动需要健康PEI执行领导团队/EOC的广泛回应。响应可能包括计划支持,设定优先级,信息管理,提供指导,资源管理(包括人员配备),活动和/或服务的协调等。示例:
2.2 National policy .......................................................................................................................1 2.2.1 Climate Change Act 2022 ....................................................................................... 2 2.2.2 Engineers Australia and Infrastructure Australia ....................................................... 2
基于机器学习的新型人工智能(AI)系统正在以快速的速度融入我们的生活中,但并非没有后果:跨领域的学者越来越指出与隐私,透明度,偏见,歧视,剥削,剥削以及与公共部门和私营部门算法系统相关的与隐私,透明度,偏见,歧视,剥削以及排除相关的问题。围绕这些技术的不利影响的担忧刺激了关于算法危害主题的讨论。但是,关于上述危害的绝大多数文章对这些情况下的“危害”没有任何定义。本文旨在通过引入一个标准来解决算法危害的适当说明,以解决此遗漏。更具体地说,我们跟随乔尔·费恩伯格(Joel Feinberg)理解危害与错误不同的危害,在这种危害中,只有后者必须带有规范性维度。这种区别强调了围绕算法危害和错误汇合的当前奖学金中的问题。响应这些问题,我们提出了两个要求在分析这些技术越来越深远的影响时维护危害/错误的区别,并暗示这种区别如何在设计,工程和决策中有用。
虽然美国的种族多元化程度正在提高,但生成性人工智能和相关技术却有可能破坏真正的代议制民主。如果不加以控制,人工智能将加剧现有的重大挑战,例如种族两极分化、文化焦虑、反民主态度、种族选票稀释和选民压制。合成视频和音频(“深度伪造”)受到了大部分公众的关注,但这只是冰山一角。针对种族的微定位虚假信息、自动选举管理中的种族偏见、歧视性投票限制、针对种族的网络攻击以及阻碍种族正义主张的人工智能监控只是人工智能威胁民主的几个例子。不幸的是,现有法律(包括《投票权法案》)不太可能应对这些挑战。然而,如果政策制定者、活动家和技术公司立即采取行动,这些问题并非不可克服。本文主张对人工智能进行监管,以促进种族包容的民主,提出了为监管人工智能提供框架的新原则,并提供了具体的政策干预措施来说明这些原则的实施。尽管种族是影响美国投票模式的最重要人口因素,但这是第一篇全面识别人工智能对民主造成的种族危害并提出前进方向的文章。
执行摘要 在过去的三十年中,技术进步彻底改变了我们生活的各个方面,既有优点也有缺点。一个重大挑战是网络技术和数字设备的成瘾性。本报告讨论了网络视频游戏和赌博的过度和成瘾性,世界卫生组织现已将其视为精神障碍。与这些行为相关的风险超出了个人福祉,影响身心健康、人际关系、工作、教育和财务状况。此外,社会成本也很高。患病率表明,很大一部分人口处于危险之中,特别是男性、青少年和年轻人。这些问题的发展受到活动特征、个人特征和环境因素的影响。故意将在线活动设计为沉浸式和令人上瘾,加剧了这一问题。此外,赌博和游戏的融合,具有付费随机结果等功能,模糊了界限,针对弱势群体,包括儿童和年轻人。缺乏监管,特别是在视频游戏行业,减少未成年人过度游戏的措施效果有限。经济利益往往与解决赌博问题行为的努力相冲突。预防计划,特别是针对青少年的计划,至关重要,应注重社会支持和持续效果。虽然存在预防、治疗和危害最小化措施,但它们对在线形式和新人群的有效性需要进一步研究和实施。与行业的合作对于有效减少危害、预防和干预至关重要。需要持续监测以识别新出现的挑战并及时做出反应。应对不断变化的在线赌博和游戏格局需要采取多方面的方法,包括研究、监管、预防、治疗和行业合作。在各个层面优先考虑有效措施对于减轻对个人的伤害并降低数字时代与成瘾行为相关的社会成本至关重要。本报告重点关注过度和上瘾使用在线视频游戏和在线赌博,世界卫生组织在《国际疾病分类》第十一次修订版(ICD-11)中将其宣布为精神障碍。
处理这些数据以影响飞机运行的航空电子系统。商用无人机系统经常依赖商用现货和开源航空电子组件和数据源,而这些组件和数据源的可靠性和完整性很难得到保证。为了减轻不符合传统航空安全标准的飞机的故障事件,监管机构通常会规定操作限制。《联邦航空条例》第 107 部分就是减轻小型无人机系统风险的操作限制的一个很好的例子。然而,这些限制限制了该行业的增长可能性。实现所有类型无人机常规运行的任何合理途径都必须解决航空电子系统(尤其是其软件)的保证需求。本文讨论了战略性地使用保证系统作为无人机常规运行的垫脚石的可能性。一个称为 Safeguard 的保证地理围栏样本系统被描述为这种垫脚石的一个例子。
伊利诺伊州技术危害缓解计划 (ITHMP) 是伊利诺伊州多危害缓解计划 (IMHMP) 的一部分,该计划还包括伊利诺伊州多危害缓解战略 (IMHMS)、伊利诺伊州人为危害缓解计划 (IHCHMP) 和伊利诺伊州自然危害缓解计划 (INHMP)。总体缓解计划和战略是在伊利诺伊州紧急事务管理局 (IEMA) 的协调下,作为州机构的合作努力而制定的。它讨论了用于识别、分析和评估伊利诺伊州技术危害的过程以及应采取的缓解这些危害的行动。随着新的缓解机会的出现,ITHMP 将继续得到审查和改进。欢迎提出意见和建议,并请转发至以下地址。