加州经济的庞大性质和硅谷的广泛影响力吸引了全国对立法之争的关注。在 AB 5 受到关注之前,有关独立承包合法性和合法性的争论仅限于就业专家、工会活动家、学者、律师以及联邦和州工资执法机构。但将员工错误归类为独立承包商并不是一个新问题,也不仅限于拼车和零工公司。硅谷高管可能会以工作时间灵活性和“成为自己的老板”的机会为由为这种身份辩解,但实际上,雇主错误地将员工归类只是为了省钱和减少责任。将员工指定为独立承包商的公司逃避了支付州税和联邦税以及工伤赔偿保险费的责任,从而节省了高达 30% 的劳动力成本。工人失去了基本权利,包括法定的最低工资和加班费、带薪病假、失业保险(如果被解雇)、工伤赔偿、反歧视保护以及成立工会和集体谈判的权利。错误分类是一种依赖于税收、保险和工资欺诈的商业模式。这是对一个世纪来之不易的工人权利的侵犯。
抽象的政治虚假信息通常会在关键事件(例如选举)中加剧,而社交紧张局势加剧则强调了及时可靠的信息的需求。从历史上看,一种解决方案是通过删除内容,降低其可见性或向用户标记风险来更有效的内容审核。尽管在全球内容节制政策的透明度上有所提高,但这种情况的发生过程通常仍然被误解。此外,这种机制反过来又在社交媒体用户之间引起了有关社交媒体公司政策以及如何规避这些辩论的激烈辩论。至关重要的是,即使对内容/可见性审核的这种白话理解通常是基于毫无根据的谣言,这些信念仍然可能对社交媒体平台的公正性,尤其是在诸如选举之类的批判性事件中的公正性。借鉴了极端言语理论(Pohjonen and Udupa 2017),本文认为,这些用户的观点和信念对内容审核政策形成了一种新型的“算法民俗”,越来越多地告知政治信息的合法性和在社交媒体上共享的政治信息的合法性。通过肯尼亚,埃塞俄比亚和印度的例子,本文提出了三个初步的内容节制民间传说的元叙事,以帮助更好地理解AI造成的虚假信息在准备印度尼西亚欧洲的作用。关键字:虚假信息,内容审核,算法民俗,极端语音,比较研究算法的民间传说被广泛定义为“关于适度算法的信念和叙事,这些算法是非正式地传递的,并且可以与官方账户保持紧张状态(Savolainen 2022:1092)。”反过来,这些信念在关键事件中可能会发挥超大的作用,例如当选举中需要提高及时和公正信息的需求,也就是说,用户如何将社交媒体平台作为公正的政治信息中的作用显着影响如何更广泛地理解民主进程的合法性。
1. 筛查合成核酸采购订单,识别关注序列(SOC)。2. 筛查含有SOC的合成核酸采购订单的客户,以验证其合法性。3. 向有关部门报告涉及SOC的潜在非法合成核酸采购订单。4. 保留与合成核酸订单相关的记录。5. 采取措施确保网络安全和信息安全。
平民领导、人口、舆论、环境和战场基础设施。有利的舆论是从政治到战术层面都要追求的目标。与民事考虑相关的另一个重要方面是法律问题,这适用于相当一部分军事行动。作战环境的合法性是与内部和/或国际支持有关的最重要原则之一。在国际组织主持下的行动中,还必须改进环境保护措施。
目的随着人工智能 (AI) 和机器学习 (ML) 的广泛使用和采用,道德、隐私、公平和合法性等核心原则在今天比以往任何时候都更加重要。国家统计机构 (NSO) 已经开始开发和实施 AI 和 ML 算法,以改善公共服务并降低成本。他们“致力于以符合透明度、问责制、合法性和程序公平性等核心行政法原则的方式开展工作”1,并确保他们开发的 AI 系统和算法“尊重人权和隐私;公平、透明、可解释、稳健、安全;参与其开发和使用的参与者仍需承担责任”2。在更快、更高效地产生结果的同时,需要确保它们合乎道德、安全并符合现有的保密和安全规则,并持续遵守质量、道德、合理方法和算法问责制。因此,国家统计局需要根据负责任的人工智能的核心指导原则制定治理框架,例如问责制、透明度和可解释性、公平和非歧视、隐私和安全。官方统计负责任人工智能的国际框架有助于为国家统计局负责任地设计、开发和部署基于人工智能的解决方案建立共同标准,确保这些新方法从道德和人性的角度都是可以接受的。
自第二次世界大战结束以来,美国主要通过建立和维护自由主义国际秩序来确保其核心国家利益。今天,这一秩序正受到挑战,其挑战将决定 21 世纪的背景。美国最紧迫的外交政策挑战是找到应对潜在非自由主义全球秩序的战略。新威权主义国家正试图通过违反领土规范、通过强制性经济措施破坏自由主义秩序以及通过非常规政治战争削弱民主政权来建立势力范围。当前的自由主义秩序由于两种全球趋势而无力应对这些挑战:其合法性的侵蚀和全球力量平衡的变化。在这种不断变化的环境中,美国大战略的目标保持不变,而其相对手段正在逐渐减弱,美国必须重新审视其实现战略目标的方式。当今地缘政治的变化要求美国重新制定大战略,建立新的安全秩序——即民主国家协调,以确保美国利益,重建自由主义合法性,并塑造新兴国际秩序,使其走向稳定的未来。
事实证明,人工智能 (AI) 在某些领域优于人类决策。每当需要高级战略推理和分析大量数据以解决复杂问题时,情况尤其如此。很少有人类活动比政治更符合这一描述。在政治上,我们处理人类面临的一些最复杂的问题,必须平衡短期和长期后果,并且我们在做出决定时知道我们并不完全了解它们的后果。我研究了人工智能在政府领域应用的一个极端案例,并利用这个案例来研究与算法治理相关的部分潜在危害。我重点关注基于政治理论考虑和人工智能技术统治的潜在政治危害的五个反对意见。这些反对意见基于“政治人”的理念,参与是合法性的先决条件,机器的非道德性以及透明度和问责制的价值。我的结论是,如果我们确保控制和备份机制到位,并且我们设计一个人类可以控制社会方向和基本目标的系统,这些反对意见就不会成功破坏人工智能技术统治。如果这里假设的人工智能政策制定能力成为现实,那么从理论上讲,这样的技术统治可以为我们提供更好的参与方式、合法性和更高效的政府。
FEMA 首字母缩略词、缩写和术语 (FAAT) 列表并非旨在成为权威来源,而仅仅是一个方便的参考资料和一份定期更新的动态文档。纳入这些术语是为了确认术语的存在,而不是合法性。已知已过时的条目(请参阅本文档末尾附近的新“已过时或已替换”部分)被纳入,因为它们可能仍出现在现存的出版物和通讯中。