我们已尽一切努力使本目录的内容尽可能准确。出版商不能保证其提供的所有信息的正确性,也不保证完全没有错误或遗漏或存在无意的包含;因此,我们对此不承担任何责任。如果您的列表中有误,我们希望您联系 Metropolitan Publishing Co., Inc.,以便进行更正。“此处包含的列表由 Metropolitan Publishing Co. Inc. 从我们覆盖范围内各电话公司 2013 年版权汇编中转录而成,未经这些电话公司的同意,不得以任何形式全部或部分复制。本电话簿用于在白页列表覆盖的地区流通和分发。本书的全部内容均为 Metropolitan Publishing Co., Inc. 的独家财产,未经 Metropolitan Publishing Co., Inc. 书面同意,任何个人或公司现在或将来均不得为了推广目录或其他商业活动而全部或部分地使用或复制本书。
完善的欺骗性设计文献集中在传统的用户界面上。随着扩展现实(XR)的兴起,了解欺骗性设计在这个沉浸式领域中的独特表现至关重要。但是,现有研究缺乏完整的跨学科分析,该分析XR技术如何实现欺骗性设计的新形式。我们的研究回顾了XR环境中有关欺骗性设计的文献。我们使用主题综合来识别关键主题。我们发现XR的沉浸式能力和广泛的数据收集实现了微妙而强大的操纵策略。我们确定了八个主题,概述了这些策略并讨论了现有的对策。我们的发现显示了XR中欺骗性设计的独特风险,强调了对研究人员,设计师和决策者的影响。我们提出了未来的研究方向,以探讨无意的欺骗性设计,数据驱动的操纵解决方案,用户教育以及道德设计与政策法规之间的联系。
风险缓解 - 虽然绿化通常被认为是故意和欺骗的,但许多企业无意间从事它。当组织认为其以环境负责的方式行事并以这种方式进行交流时,就会发生无意的绿化。然而,对他们而言,他们的环境计划可能不如假定的效率或全面。无意绿化的起源经常在于组织气候作用的第一步:碳足迹计算。根据波士顿咨询集团(Boston Consulting Group)的2021年调查,企业在排放量计算中的平均错误率为30%至40%。这种被称为准确性差距的差异强调了感知到的实际排放输出之间的差异。准确性差距排名最普遍的绿色陷阱,因为基于不完整信息的任何动作都会产生不完整的结果。因此,准确性差距对企业构成了责任,强调了对综合和精确的碳核算的必要性,作为降低风险措施。
鉴于 NASA 的使命备受瞩目,且与教育机构、研究机构和国际合作伙伴有着广泛的联系,其面临的内部威胁风险巨大且多种多样。在本次审计中,我们检查了 NASA 是否根据联邦和机构的政策以及网络安全领先实践实施了有效的内部威胁计划。具体而言,我们检查了:(1) NASA 的内部威胁策略是否提供了足够的框架来识别恶意和无意的内部威胁;(2) NASA 是否实施了适当的采购控制措施,以识别和防止外国对手窃取知识数据;(3) NASA 是否制定了足够的网络安全控制措施来防止、检测和应对数据和知识产权的提取或操纵。为了开展我们的工作,我们审查了联邦和机构的政策、法规和指导,以及行业最佳实践;采访了保护服务办公室、首席信息官办公室和采购办公室的众多 NASA 官员;并会见了国家内部威胁工作组。
让我们更好地考虑我们今天所处的环境;领先的分析师1 预测,到 2025 年,网络攻击者将拥有武器化的运营技术 (OT) 环境,以成功伤害或杀死人类。虽然这看起来很极端,但它支撑了网络战的一种趋势,因为威胁行为者从侦察和间谍领域转向网络战工具的动能应用。这些动能网络武器已经在野外被发现,尽管没有一种专门用于致命效果。例如,2017 年发现的 Triton 恶意软件针对并禁用了沙特阿拉伯一家石化厂的安全仪表系统 (SIS) 控制器2,如果没有发现问题,可能会导致全厂灾难。2021 年 2 月3 日,一名黑客试图通过远程访问毒害佛罗里达州一个小城市的供水设施。我们已经看到针对医疗保健行业的勒索软件攻击导致人员死亡4,因此网络攻击(无论是有意还是无意的)的潜在影响是显而易见的。
在一个时代,公司正在创新并使用比以往任何时候都多的数据来营销目的,人们认为需要加强监管以保护消费者的隐私。我们根据学术营销文献提供了一种观点,该文献评估了现有和未决的政府法规和公司隐私政策的各种收益和成本。我们提出两个关键点。首先,监管机构可能希望避免从基于数据的营销和个性化会自动有害的立场开始。第二,法规和政策可能会带来无意的后果。在需求方面,隐私法规和政策可能会加剧已经被边缘化的消费者细分市场的数字排除。此外,消费者在共享和不共享特定数据中是否受益于他们是否受益。在供应方面,法规和政策可能会使企业家和小型企业的竞争力不成比例。技术平台提出了差异性隐私解决方案,以减轻其中一些危害,但同样,以一种可能不利于小公司和企业家的方式。
基于种族,性别或阶级等特征,因此与公平问题有关。例如,许多状态(例如阿根廷,法国,巴勒斯坦和塞拉利昂)强调了需要解决AWS对数据集的依赖的风险,“可以永久或扩大了无意的社会偏见,包括性别和种族偏见”。14同样,其他状态(例如奥地利,比利时,加拿大,哥斯达黎加,德国,爱尔兰,墨西哥,巴拿马和乌拉圭)强调了越来越多的文献,即“人工智能中性别和种族偏见的例子”,“基于数据的系统重现存在不平等现象”。15在国家政策声明中也表达了对偏见的类似问题。例如,美国国防部强调对AI的“公平”使用,并承诺“采取故意措施最大程度地减少AI能力的意外偏见”。16同样,英国国防部强调,“算法偏见或偏斜的数据集产生的犯罪结果的风险”特别关注AI支持的军事系统。17这些偏见的说法在很大程度上反映了专家文献的一部分,这些文献将偏见视为不平等的治疗问题。
1.1 政策指南的目标 2019 年,在其成员经过两年的包容性努力之后,美国规划协会 (APA) 通过了《规划公平政策指南》,该指南阐明了该组织在该主题上的倡导立场。该政策指南回顾了公开和无意的规划实践的普遍影响,这些实践导致美国各地地方政府采用的许多计划和政策中存在种族、民族、性别、基于流动性和基于能力的偏见和排斥。它还回顾了规划专业之外的复杂机构实践网络,这些实践强化了这些实践的不公平结果,以及它们如何共同使美国大部分公众处于不利地位。它解决了规划和分区专业严重缺乏多样性和包容性的问题,以及规划人员在消除许多当前规划实践中存在的不公平现象方面的作用和责任。每个有意让社区更加公平的规划人员、规划官员或民选官员都应该仔细阅读和遵循该政策指南并实施其建议。
摘要:从社交网络中收集的个人特征的算法评估经常用于对保险费、招聘决策和就业机会、社会保障福利等领域的人员进行评级。这些算法梳理庞大的数据集(例如用户在社交网络上上传的信息),以“学习”某些特征之间的相关性和趋势,并生成“人员排名”,根据社交、声誉、身体、心理甚至行为特征系统地对个人进行评级。由于此类算法同样适用于有残疾和没有残疾的人,因此它们对残疾人尤其有害。换句话说,这些算法将残疾人的排名排在健全人以下(或不太受欢迎),导致依赖此类算法的公共和私营部门组织对残疾人产生歧视。需要采取立法行动为残疾人提供法律保护,使其免受此类算法歧视,无论这种歧视是有意还是无意的。由于此类算法广泛应用于各行各业,立法要求类似情况的残疾人和健全人获得相同的算法排名,可以极大地帮助改善残疾人的生活质量和机会。
CACI 为情报界提供人工智能 (AI) 和机器学习 (ML) 解决方案,以自动化信息收集、处理、利用和传播过程。我们的 AI 模型提高了数据分析速度、目标识别和跟踪的准确性,并识别有意和无意的数据异常。我们通过应用 AI 和 ML 工具进行特征提取、对象检测、全动态视频分析、射频 (RF) 签名跟踪和异常事件检测以及语言翻译解决方案来改善客户的通用情报图景。我们快速结合开源和多 INT 数据,实现高效准确的模式检测。我们部署人机交互技术,作为强大的工具,帮助分析师改进他们的 AI 模型输出,而无需昂贵的算法开发。我们是大规模部署机器学习操作 (MLOps) 的专家,并将先进的 AI 技术与可立即投入生产且经济高效的架构相结合,能够满足全球乃至战术前沿不断变化的战略和战术需求。我们将 AI 技术与我们的任务专业知识相结合,为我们的客户提供任何规模的决策优势。