然而,直到最近几年,这种形式的 ADR 在很大程度上仅限于工会部门。1964 年,《民权法案》第七章以国家劳工关系委员会和联邦劳动法为基本模式,制定了 EEOC 和联邦就业歧视法。但是,出于对强大的联邦反歧视机制的恐惧,国会妥协了,拒绝授予 NLRB 的停止和终止权力 9 或独立诉讼权给 EEOC。相反,它要求这个刚刚起步的机构尝试调解所有经调查并认定有理的指控。'0 因此,在私人、非正式争议解决系统通常局限于集体谈判环境的时代(实际上“ADR”一词尚未被创造出来),EEOC 的行政程序是在公共支持下利用一种 ADR 形式来快速和双方满意地解决投诉。
摘要。在量子通信和量子计算中提出的许多方案中,都涉及到对给定非正交量子态进行区分的问题。然而,量子力学对我们确定量子系统状态的能力施加了严重的限制。特别是,即使已知非正交状态,也无法完美区分它们,并且已经开发出各种针对某些适当选择的标准的最佳区分策略。在本文中,我们回顾了关于两种最重要的最佳区分策略的最新理论进展。我们还详细介绍了量子测量理论的相关概念。在对该领域进行简要介绍后,第二章讨论了最佳明确(即无误差)的区分。具有最小误差的模糊区分是第三章的主题。第四章概述了最近出现的多粒子状态区分子领域。最后,我们进行了简要的展望,试图概述近期的研究方向。
该部酒精和其他药物中心(CAOD)委托这项研究,并与新南威尔士州临床创新机构(ACI)以及酒精和其他药物机构(NADA)合作。该研究的目的是确定有助于对遭受与AOD使用相关的损害的人的污名化和歧视治疗的性质,程度和因素,并由新南威尔士州健康和非政府组织(NGO)劳动力所表达的AOD使用相关。选定的劳动力细分市场或服务类型,包括酒精和其他药物服务,精神健康,当地卫生区(LHDS)内的产妇和急诊部门,以及专业的非政府组织酒精和其他药物服务。
我们提出了一个通用框架,用于解决多类分类问题,该框架使用可以解释为模糊集的分类函数。我们在基于量子态鉴别技术的量子启发式分类器领域专门研究这些函数。具体来说,我们使用由给定数据集的训练集确定的模糊可观测量(正算子值测度)来构建这些分类函数。我们表明,一旦这些分类函数从训练数据集的量子编码中“提炼”(在经典平台上),就可以在近期的量子计算机上测试此类分类器。我们将这些实验结果与理论结果进行了比较,并提出了一些问题以供未来研究。© 2023 Elsevier BV 保留所有权利。
最近,非法滥用药物滥用急剧增加,与使用相关的死亡率越来越高。1–3要与滥用这些物质作斗争,必须检测不同的分子。因此,检测广泛的非法药物的能力,例如海洛因,可卡因,甲基苯丙胺和梅菲无人机,是一项重大挑战,其克服将为社会带来巨大的好处。4,5成功发现此类药物已成为减少威胁和风险的关键优先事项,6-10造成严重损害,例如呼吸,心脏,肾脏损害以及精神健康问题,例如暴力,抑郁,焦虑,焦虑和幻觉。11,12为了设计敏感,快速,便携式和低成本的传感纳米版,有必要开发新的纳米材料和设备概念,并制定新的计划和策略来控制,管理和开发精确的传感器芯片。已经提出了各种技术来检测非法药物,例如质谱,3,13,14个核磁共振,15,16 X射线粉末衍射17和高分辨率的液相色谱法。18
本文探讨了拉丁美洲数字福利国家内算法歧视的现象。它研究了由算法驱动的自动决策过程如何使现有的社会不平等现象。该研究深入研究了拉丁美洲福利国家的政治经济学,强调了由华盛顿共识和新兴的“硅谷共识”等全球经济框架影响的过渡。通过对哥伦比亚和智利的234种公共算法和案例研究的全面分析,该论文确定了算法决策影响社会政策的关键领域。它还评估了旨在减轻算法偏见以及促进公平和包容性的机构响应和法律框架。这些发现强调了对特定地区的算法治理方法的需求,强调了上下文化的法律和监管措施的重要性,以确保非歧视国家和在数字时代获得公平的社会服务。
摘要:大数据和人工智能(“AI”)正在彻底改变公司、政府和雇主对个人进行分类的方式。然而,令人惊讶的是,这场革命对反歧视制度造成的最重要威胁之一在现有文献中基本上未被探索或误解。这就是现代算法会导致“代理歧视”的风险。代理歧视是差别影响的一个特别有害的子集。与所有形式的差别影响一样,它涉及一种表面上中立的做法,但这种做法对受保护阶层的成员造成了不成比例的伤害。但产生差别影响的做法只有当表面上中立的做法对歧视者的用处至少部分来自于它产生差别影响这一事实时,才构成代理歧视。从历史上看,这种情况发生在一家公司故意试图通过依赖类别成员代理(例如邮政编码)来歧视受保护类别的成员时。但是,当受保护类别的成员身份可以预测歧视者表面上中立的目标时,代理歧视就不一定是故意的,从而使歧视变得“合理”。 在这些情况下,公司可能会在不知不觉中代理歧视,只知道表面上中立的做法会产生理想的结果。本文认为,人工智能和大数据是这种无意但“合理”的代理歧视风险的游戏规则改变者。拥有大数据的人工智能天生就具有代理歧视的结构,只要它们被剥夺了有关法律上可疑类别成员身份的信息,而该类别的预测能力无法通过人工智能可用的非可疑数据更直接地衡量。简单地拒绝 AI 访问这些预测性但可疑特征的最直观代理,对于阻止这一过程几乎没有作用;相反,它只会导致 AI 找到不太直观的代理。出于这些原因,
简介 企业经常依赖预测模型来支持或做出有关投资、员工招聘和留任、财务报告、客户服务(包括授信、定价和营销)、客户关系管理、资本充足率和其他各种目的的决策。一般而言,使用任何模型都涉及“模型风险”,其定义为“基于不正确或误用的模型输出和报告做出的决策可能带来的不利后果”。1 此类风险的潜在来源包括但不限于设计缺陷;假设、数学或编程错误;数据错误;模型实施错误;或将模型误用于非设计目的。但是,它还包括使用模型会导致违反法律或法规(例如禁止歧视)或造成代价高昂的声誉损害的风险。模型复杂性增加、数据输入和假设的不确定性、更大程度的
众所周知,在有限、非渐近状态下,对于经典信道和量子信道的区分,自适应策略比非自适应策略更具优势。然而,Hayashi [IEEE 信息理论汇刊 55(8), 3807 (2009)] 表明,在渐近状态下,自适应设置不会改善经典信道区分的指数错误率。我们通过多种方式扩展了这一结果。首先,我们通过证明自适应策略不会渐近改善经典量子信道区分的指数错误率,建立了经典量子信道的强 Stein 引理。其次,我们恢复了许多其他类别的信道,对于这些信道,自适应策略不会带来渐近优势。第三,我们给出了自适应协议对于一般渐近量子信道区分的功率的各种逆界。有趣的是,自适应协议是否可以改善非对称 Stein 设置中量子信道区分的指数错误率仍未可知。我们的证明基于量子通道的摊销可区分性的概念,我们使用数据处理不等式对其进行分析。