在更广泛的经济安全领域中,一个核心问题是如何有效地打击经济胁迫。与经济安全概念本身一样,经济胁迫也是一个模糊而广泛的术语,其定义因情况而异。例如,七国集团将经济胁迫定义为“试图通过强迫目标国家遵守和遵守来将经济依赖武器化”,这一措辞可以很容易地涵盖不透明的中国胁迫努力,例如针对立陶宛等国家,以及以联合国法律制度为基础的针对伊朗等国家的更广泛的美国金融制裁制度。4 利用经济激励和抑制措施实现战略效果的努力并不是什么新鲜事,尽管它们的现代表现形式具有某些独特的元素。5 从维护国际规则秩序的角度来看,在复杂且相互依存的现代供应链背景下,经济胁迫事件发生频率的稳步上升代表着一种特别令人担忧的趋势,最终有可能破坏全球安全和稳定。6
什么是人工智能?关于这个加权的、在某些情况下不确定的术语的含义,有许多理论,关于它能实现什么,也有很多猜测。对某些人,尤其是斯蒂芬·霍金和埃隆·马斯克来说,超人智能或通用人工智能的创造是不可避免的,而对另一些人而言,这仅仅是一个极客神话 (Kelly, 2017)。一些专家主张我们应该重新考虑我们所说的人工智能,因为大多数应用中的人工智能都是所谓的狭义人工智能,执行一些相对简单的任务,例如电视推荐系统,这与可能被视为类人机器人推动者的“通用人工智能”形成鲜明对比。尽管人工智能有许多应用,但它是不透明的,通常被视为一个数字黑匣子,只有那些拥有特权的人才能访问,甚至专家也会质疑机器是如何工作的、它是如何被训练的以及它是否总是正确的。然而,尽管尚未完全理解其效果、构造或输出结果,但人工智能技术仍在各种应用中匆忙使用,而不是经过精心设计实施。
人工智能 (AI) 与医疗保健的整合具有提高效率、质量和可及性的巨大潜力,但也引发了深刻的道德和法律挑战,需要深思熟虑的治理。本文对监管医疗 AI 的多方面格局进行了全面分析,以促进符合社会价值观的负责任创新。它调查了促使采用的关键驱动因素,同时仔细审查算法偏见、隐私泄露、非人性化护理和劳动力中断的风险。研究了专业许可和执业范围的改革,以平衡创新和护理质量。分析了人工智能系统不透明的“黑匣子”性质,以阐明问责制、公平性和歧视问题。对 FDA 新颖监管方法的评估提供了建设性的分析,并与波音 737 Max 危机进行了类比。调查了包括责任、隐私、同意和网络安全在内的复杂法律考虑因素,以倡导利益相关者之间的平衡政策制定。
2015 年至 2021 年间,MEDLINE 索引中涉及急诊和急救护理中 AI 的出版物超过 500 篇,其中超过一半是在过去 2 年内发表的。人们认识到 AI 技术可以在 ED 决策、工作流程和运营中发挥重要作用。2–4 然而,由于对非结构化且通常不透明的报告、不适当的算法选择、代理偏差、数据隐私和安全的担忧,人们呼吁制定更好的标准来开展和报告涉及 AI 的研究。5–9 对于执业的 ED 临床医生来说,这将有助于在模型部署或推广之前解释和理解 AI 研究。本文旨在为临床医生和研究人员提供入门知识,帮助他们了解与 EM 相关的常见 AI 方法,并提供解释 AI 研究的框架。配套论文更详细地探讨了 EM 环境中的 AI 模型构建流程。
摘要:数字共享的兴起已经扩大了共享资源,并解决了传统共享的一些挑战。但是,这种扩展创造了新的边界,形成了一个复杂的范式,挑战了平台资本主义并要求替代政府模型。这项研究概念化了宇宙本地主义框架内共享资源,检查其形成,平台资本主义下的封闭过程以及潜在的消除途径。平台资本主义利用法律框架和不透明的算法系统来适当资源并统治数字劳动力市场,表现出以剥削和利润最大化为特征的共同体的当代悲剧。使用乘车共享作为案例研究,这项研究强调了宇宙局限制的动态性质,并提出了反剥削的策略。通过整合平台合作主义和社会共同资本,本研究提供了可持续,公平的资源管理解决方案,并得到了对业务模型的比较分析的支持。
人工智能 (AI) 系统可用于各种领域,包括在线营销。该领域最具影响力的案例可能是实现个性化广告的定位技术。它们依赖于广泛的数据挖掘、细分和用户资料的创建,借助自动广告拍卖,特定广告可以实时匹配到特定人员。AI 系统通过详细的数字洞察帮助企业充分了解潜在消费者,从而帮助企业有效地接触潜在消费者。在线营销行业使用 AI 收集有关在线用户、他们的设备、他们使用的软件、他们访问的内容以及他们的在线行为模式的信息。所涉及参与者的结构和相互作用是紧密交织的、不透明的,并且仅由少数市场参与者强烈塑造,这些市场参与者通常同时扮演多个角色(例如广告商、出版商和中介机构)。人工智能为他们带来了巨大的收入和市场力量。与此同时,快速的技术发展是以牺牲个人、环境和社会为代价的。
几乎花了一个完整的欧盟立法机关来构思,发展并最终通过平台工作的欧盟指令。在社会对话咨询之后,委员会于2021年12月提出了一项立法提案,并提出了两个基本原则。首先,有必要进行新颖的工具,以避免平台工人错误分类的常见风险。后者的确倾向于根据(伪造)自雇模型参与。通常,这剥夺了他们的劳动保护,并使他们持pres可危和脆弱性。第二,将自动监控和自动化决策系统(ADMS)集成到工作场所被认为是工人新风险的来源。这种数据驱动的基础架构都会放大和混淆传统的管理特权。数字平台已经采用,经过测试和微调的实践,对不断的监视,反复无常的管理,不可预测的安排和不透明的纪律。这样的增强雇主权力是一个关键的法律挑战,因为它以较不明显的和更倾斜的特权代替了传统的命令和控制方法。这取代了更熟悉的控制
在非相干攻击中,攻击者分别处理从重新传感器接收到的每个光子。最简单的选择是上述拦截攻击 - 发送光子。由于在这种攻击期间,光子不会沿着通信线路进一步传递,但会发送新的光子,因此这种策略称为不透明的。非相干攻击也是将量子样本与通过信道发送的光子纠缠在一起的攻击。在这种情况下,每个光子都会与独立于其他光子的单独分解混淆,并且相互作用的光子会发送到接收器。现在,攻击者可以将样本存储在量子存储器中,并在公开的消息交换结束后分别测量它们的状态。窃听公开的消息允许人们找出发送者的基础,从而选择最佳测量程序以获取有关密钥的更多信息。这种攻击是半透明的,因为攻击者混淆其样本的光子的状态会发生变化。通过减少攻击者收到的密钥信息量,可以降低攻击者引入的错误级别 [14]。
摘要 目前用于决策的许多人工智能 (AI) 系统都是不透明的,即由于系统的计算复杂性,人们并不完全了解决定其决策的内部因素。针对这一问题,一些研究人员认为,人类决策同样不透明,因为在人类案例中,简化、给出理由的解释(而不是详尽的因果解释)通常被视为足够的,因此对于算法决策也应如此。在这里,我认为这种论点忽略了人类决策有时比算法决策更加透明和值得信赖。这是因为,当人们通过给出理由来解释他们的决定时,这经常促使那些给出理由的人进行自我管理和调节,以便以证实其理由报告的方式思考和行动。AI 解释系统缺乏这种自我调节功能。在比较算法和人类决策时忽视这一点,可能会导致低估人类决策的透明度,并导致可解释的人工智能的发展,这种人工智能可能会通过激活关于推理的规范维度的普遍合理的信念来误导人们。
机器学习被从业者广泛用于解决复杂挑战。然而,尽管受到 76% 公众的信任,科学家们仍难以解释基于机器学习的决策背后的原理。这令人担忧,因为研究表明,即使系统不可靠或他们有先验知识,人们也经常依赖不准确的机器学习建议。为了解决这些问题,迫切需要提高机器学习决策的透明度和教育水平。在这项工作中,我们提出了一套指导方针和设计含义,以便向普通受众传达可解释的人工智能模型。我们通过对最新的可解释人工智能方法进行文献综述来做到这一点,并通过一项涵盖参与者对可解释人工智能解决方案的解释的用户研究来验证这些见解。结合这项混合方法研究的见解,我们确定了七条主要的沟通准则,以提高对机器学习模型的理解。这项研究有助于更广泛地讨论决策中不透明的机器学习模型的伦理影响。通过制定指南,我们希望弥合机器学习专家和公众之间的差距,从而更好地共同理解它在我们生活中日益增长的重要性。