HAL 是一个多学科开放存取档案馆,用于存放和传播科学研究文献,无论这些文献是否已出版。这些文献可能来自法国或国外的教学和研究机构,也可能来自公共或私人研究中心。
2023 年至 2024 年期间,欧洲大陆发生的事件,例如农民抗议农业政策变化,以及右翼民粹主义政党利用对气候政策的担忧,都凸显了政府未能带领公众共同努力的风险。建立个人能动性、个人参与感和与转型的联系感似乎至关重要。对净零政策的反对(或“绿色反弹”)导致一些关键的净零政策被搁置或推迟,欧盟为回应农民抗议而明显削弱了一些气候政策,例如将化学农药使用量减半。1 鉴于雄心勃勃的净零和脱碳目标,英国不能陷入同样的境地。在本报告中,我们试图了解英国公众对净零转型的信任程度,以及他们在这一过程和政策制定者中的参与程度。
自2020年以来,为了回应社区围绕种族不公正和高度可见的警察杀害没有武装的黑人,尤其是在美国,不仅在美国,全世界许多部门的著名机构已公开承诺纠正长期存在的社会社会,尤其是种族的不平等和义务。学术期刊的学术出版商和编辑也做出了回应,在2020年Wiley的“多样性,公平和包容性”(DEI)承诺中,以及我们的出版商创建了一个专门的DEI团队。来自我们同志学科中著名期刊的编辑陈述也是这一趋势的证据;例如,组织的编辑保证伴随着在明尼阿波利斯谋杀乔治·弗洛伊德(George Floyd)谋杀乔治·弗洛伊德(Mir and Zanoni,2021年,第3页)之后,由种族正义组织的“道德和政治势头”。Some critical scholars are skeptical of these public commitments, noting that, after Floyd's murder, statements of allyship were often crafted in a way that obscured exactly how institutions or organizations would commit to efficacious solidarity, and that public statements of commitment to social justice arguably converge with an array of affirmative and “positive” messages in advertising that “[reconfigure] oppression in terms of aspiration” and maintain neoliberal常识(Kanai和Gill,2021年,第12页)。作为地理指南针的部分编辑,我们希望我们可以通过将自己的纪律辩论置于面向公共的承诺的背景下,并确定解决系统不平等,不公正现象,不公正和在我们的编辑工作中排除的可行和可行的方法。
参与性的方法可以使社区成员能够发展其发展;但是,基于结构和身份的因素可能会阻碍公平的参与。必须批判性地研究参与发展背景的政治,动力和言论。我们通过将我们的研究置于印度政府的越来越多的努力中,以支持农村农民参与自然资源管理(NRM),以在建立气候变化弹性的同时,将我们的研究数字化来解构参与的含义,含义和需求。通过包括观察,访谈和焦点小组在内的现场研究捕获所在的本质,我们系统地分析了参与NRM的挑战,并发现了影响其工作流数字化的技术差距。我们讨论了有意义地设计和整合数字技术的社会技术考虑因素,以支持仅参与实现可持续发展。
1 阿尔巴尼亚 2.79 9,010 96.67 0.00 0.00 3.33 100.00 8,090 111.37 2 不丹 0.79 11,160 100.00 0.00 0.00 0.00 100.00 1939 中非共和国5.33 140 100.00 0.00 0.00 0.00 100.00 140 100.00 4 莱索托 2.34 480 100.00 0.00 0.00 0.00 100.00 930 0.00 0.00 0.00 100.00 尼泊尔 97 0.09 0.00 0.93 100.00 11,450 93.45 6 冰岛 0.39 20,120 70.08 0.05 29.87 0.00 100.00 20,120 100.00 南格鲁吉亚/S. SW 岛.00003 0.76 98.68 1.32 0.00 0.00 100.00 0.76 100.00 8 埃塞俄比亚 132 18.260 96.50 3.07 0.16 0.22 99.95 16.50 1.61 民主党代表Congo 116 15,900 85.97 0.00 0.00 13.84 99.81 17,310 91.68 10 Paraguay 6.93 44,240 99.46 0.00 0.00 0.00 99.46 Costa Rica 1.5 1.5 13 11.710 72.93 12.72 13.07 0.68 99.40 10.990 105.91 12 Norway 5.58 153.420 88.62 9.75 0.01 0.00 98.38 Namibia 13.35 1.35. 1,890 69.84 1.06 0.00 26.98 97.88 4,640 39.87 14 Sierra Leone 8.64 210 85.71 0.00 0.00 9.52 95.24 210 95.24 0.00 20.08 Tokel. 25 0.00 91.57 93.82 1.78 93.82 16 Malawi 21.7 1.830 92.35 0.00 0.00 0.55 92.90 1.810 93.92 17 Tajikistan 0 92.59 19,210 104.11 18 Uganda 50.0 5,750 86.61 0.00 0.00 2.61 89.22 5,370 95.53 19 Zambia 21.3 19,460 87.820 70.80. ,640 103.61 20 Kenya 56.4 12,790 20.88 15.72 47.15 4.53 88.27 13,070 86.38 21 Greenland 0.056 540 87.04 0.00 0.040 2 Afghanistan 42.6 970 77.32 0.00 0.00 9.28 86.60 7,190 11.68 23 New Zealand 5.21 43,860 59.67 8.00 17.62 0.84 86.14 8.00 17.62 0.84 86.14. 13.730 85.65 0.00 0.00 0.00 85.65 17.230 68.25 25 Mozambique 34.6 19.560 82.67 0.00 0.00 0.36 83.03 16.360 99.27
简介批判性和女性主义的计算历史开始探索种族、阶级、性别、文化和其他社会因素如何影响计算技术的发展,以及这些技术如何反过来帮助构建和执行文化和社会规范。近期的历史(Hicks 2017;Rankin 2018)将计算历史描绘成深深嵌入社会、政治和文化力量的网络之中,这些力量塑造了劳动力、获取形式和围绕计算技术的想象。本文旨在补充这些批判性历史,并以越来越多的“批判性人工智能研究”文献为基础,这些文献从社会文化背景和含义的角度考虑特定的人工智能 (AI) 技术和工艺。从历史的角度研究人工智能提供了一种超越技术规范来考虑算法和人工智能技术的方法,而是将它们分析为受物质、地理、政治和社会力量塑造的复杂社会技术组合。
根据 OCGA 20-2-692.1,如果学生的父母或法定监护人正在美国武装部队或国民警卫队长期服现役,则允许其最多请假:• 在被部署到海外战区或战斗支援岗位之前,或在父母/法定监护人休 R&R 假或从部署地返回期间,每个学年请假 5 天,以便探望父母/监护人;• 在两个学年内,因军事事务主办的活动请假 5 天,包括去医疗机构探望军人父母/法定监护人;或参加军人的仪式,如晋升、毕业或退休。
早在几十年前,人们就想到了拥有自主能力和智能并且不受人类指示或监督的机器人。这些(当时)未来主义的想法被逐渐融入到非常现实的当前技术中。结合人工智能(“AI”)技术,产品和机器颠覆了代理的概念以及人类在制造和服务提供中的参与。当没有明显的代理或人格,或者当行为几乎本质上不可预见时,应如何构建责任?更具体地说,在基于人工智能的机器人的背景下,产品责任或其他侵权责任模型是否适合新框架?本文旨在解释为什么现行的法律和学说(例如产品责任和过失)不能为这些技术进步提供充分的框架,主要是因为缺乏人格、代理以及无法预测和解释机器人行为。本文从具体理论出发,还指出,三种主要责任制度(严格责任、过失和无过错强制保险)均无法充分解决人工智能机器人面临的挑战。最终,本文旨在提出补充规则,这些规则与现有的责任模型一起,可以提供更适合人工智能机器人的法律结构。这些补充规则将起到准安全港或预定的注意水平的作用。满足这些规则将把负担转移回当前的侵权法理论。不符合这些规则将导致责任。这些安全港可能包括监控义务、内置紧急制动以及持续的支持和修补义务。论点是,这些补充规则可以作为推定过失的基础,补充现有的责任模型。如果被采纳,它们可以建立明确的规则或最佳实践,确定人工智能机器人的设计者、操作者和最终用户的潜在责任范围。
Michael Chatzipanagiotis* 摘要 人工智能 (AI) 越来越多地用于太空活动。人工智能采用机器学习技术,使系统能够通过接触大量数据自动提高其性能。这种技术发展意味着太空活动将以更高的系统自主性进行。然而,这使得它的行为在很大程度上变得不可预测,因此,人们开始质疑人工智能如何影响国际空间法下的现行责任制度。本文认为,鉴于定义“过错”和建立过错与损害之间的因果关系的挑战,需要发射国“过错”的案件将变得(甚至)更难处理。过错可能表现为不遵守既定的国际规则或行为准则、对其他国家在《太空条约》第 IX 条下的利益考虑不足或行为不合理。这些参数与人工智能以及其他特定于人工智能的因素(例如训练数据)一起进行检查。如果使用人工智能通过建议来支持人类决策,那么还应考虑人为因素,例如适当的警告和用户友好的系统设计。此外,人工智能决策的可解释性非常可取,但由于人工智能系统的复杂性,也很难实现。无论如何,不应排除将人工智能行为与人类行为进行比较,但需要极其谨慎。本文的结论是,有必要制定有关太空活动的国际法规,即使是非约束性形式,以及基于绩效的国际安全标准。受害者保护方面的任何空白都必须通过国家立法和保险来填补。
• 我们展示了 QPCP 的一个先决条件:一个显式局部哈密顿量,其低能态都需要 ω (log n ) T 门,也就是说,它们非常不稳定。事实上,我们展示了一个更强的结果,即低能态需要 Ω( n ) T 门,而这不一定是 QPCP 所暗示的。