该病毒在 65 岁以上人群、患有基础疾病(尤其是非传染性疾病)人群以及更令人心寒的护理机构居民中的死亡率较高,这让人们意识到,我们所倡导的群体是全球最脆弱的群体之一。同时也是最不受重视的群体之一。随着报告开始大量涌入——首先来自菲律宾和意大利,然后来自世界各地——医生在将患者送入重症监护病房时被迫做出分诊决定,我们难以置信地看着这一切。英国 NICE 指南建议使用临床虚弱量表,该量表已更新,专门包括痴呆症(据我们所知,其他地方没有包括)。然而,这仍然鼓励根据年龄做出直接决定,这体现了我们内心深处一直知道的事实,即年龄歧视仍然被认为是完全可以接受的。在所有其他国家/地区,这些床边生死攸关的决定都交给了劳累过度且勇敢的医生、护士和护理人员——无论床边在哪里。
人工智能和算法决策系统在刑事司法系统、教育、招聘、住房和其他领域中的应用越来越普遍。每天似乎都会出现有关人工智能工具如何延续和强化种族主义和历史偏见的新头条新闻:存在缺陷的面部识别工具导致又一次错误逮捕一名黑人;商业产品中常用的语音识别系统在识别非白人顾客的言语方面表现更差;某社交媒体平台的图像识别算法再次将黑人贴上了灵长类动物的标签。然而,人们对医疗保健和医学领域的算法偏见问题关注得还远远不够,而这些工具在这些领域也已大量出现。医疗保健中的决策可能会产生严重后果,在某些情况下甚至会给患者带来生死攸关的后果。因此,关注如何识别、改善和适当监管医疗保健领域的自动化偏见尤为重要。
人工智能 (AI) 在过去几年中取得了前所未有的进步,引发了有关人工智能安全性的争论。人们担心人工智能发展过快,没有考虑到所有安全问题,这导致人们呼吁放缓人工智能研究,因为它对每个人的生活的影响越来越大。例如,人工智能领导人呼吁暂停高级人工智能开发 6 个月[1]。同样,《国际高级人工智能安全科学报告》也提出了一些安全问题,甚至对军事用途等没有生死攸关的决定那么重要的问题也是如此[2]。我们认为,人工智能界在很大程度上忽视了自主武器系统 (AWS),这是人工智能的一个令人担忧的用例,对人类生命构成了令人震惊的威胁。最近的研究 [3] 是人工智能领域为数不多的明确解决 AWS 风险的研究论文之一,提出了减轻这些风险的建议及其对人工智能研究和全球稳定的影响。我们以这类工作为基础,质疑军事人工智能是否可以在国际人道主义法 (IHL) 的背景下得到安全监管。
多年来,研究人员一直在努力控制这一新威胁 1 。如今,联合国迈出了关键的一步。去年 12 月的一项决议将致命性武器主题列入了今年 9 月联合国大会的议程。联合国秘书长安东尼奥·古特雷斯去年 7 月表示,他希望到 2026 年禁止在没有人类监督的情况下运行的武器。马萨诸塞州剑桥市哈佛法学院的人权律师邦妮·多切蒂表示,在十多年来进展不大之后,将这个话题列入联合国议程意义重大。她说:“外交进展缓慢,但这是重要的一步。”专家表示,此举为各国对人工智能武器采取行动提供了第一条现实途径。但这说起来容易做起来难。这些武器提出了一些棘手的问题,包括人类的能动性、问责制以及官员应该在多大程度上能够将生死攸关的决定外包给机器。
引言 在未来十年,国际特赦组织将不得不在一个动荡、不确定和日益复杂的世界中捍卫人权。挑战既有实质性的,也有规模性的:有些挑战对人类而言是生死攸关的。气候变化已经产生了灾难性的影响,对世界各地最弱势的人群产生了不成比例的影响,危及他们获得水、土地和食物的机会,并威胁到整个社区和文化的生存。数字和生物技术为人类活动的许多领域开辟了巨大的可能性,但也被用来颠覆公民自由和政治自由,破坏民主。全球化既创造了前所未有的财富,也产生了国家内部和国家之间更广泛、更根深蒂固的不平等,而新冠肺炎疫情又进一步加剧了这种不平等。有史以来最大的年轻人一代集中在相对贫困普遍存在的全球南方,而远富裕的全球北方正在经历前所未有的老龄化。国家的强人领导助长了歧视和偏见,妖魔化少数群体并分裂了人口。 独裁做法
您拥有哪些背景、经验和专长使您有资格担任国防部长?我相信我过去的经历为我提供了必要的领导技能、地缘政治敏锐性和对联合和联合行动的深刻理解,使我能够以国防部长的身份为这个国家服务。我知道如何与跨部门伙伴合作,也知道如何与盟友和伙伴国家一起领导、规划和行动。由于参加过战争,我也非常了解任何国防部长必须做出的生死攸关的决定。我已准备好根据自己的经验做出这些决定。最后,我相信自退休以来五年来在非营利组织、学术界和私营企业获得的经验拓宽了我的技能和视野。我与其他机构(国务院、中央情报局等)的合作伙伴进行了广泛的合作。此外,我在与盟友合作和组建团队方面也有丰富的经验。约翰霍普金斯大学高级国际研究学院院长艾略特科恩博士写道:“...国防部长代表军队面向整个社会,更重要的是,代表社会面向军队。选择文职人员可以确保文职人员的观点占主导地位,这是理所应当的。”
Eat Pumps是一项非常合适的技术,可解决气候变化的原因和影响。The role of heat pumps in limiting the release of heat-trapping gasses is well-known: switching from the burning of fossil fuels in boilers and furnaces to electricity-pow ered heat pumps can lead to nearly zero emissions in regions powered by clean electricity, and even in places with relatively emissions-inten sive electricity, heat pumps result in less emissions than gas furnaces (International Energy Agency 2022).热泵还可以从极高的热量中提供质量,使其成为越来越频繁的热浪时期的宝贵而救生的弹性来源,随着气候变化的恶化,它们变得越来越频繁和强烈。正如最近的极端热量事件所证明的那样,获得空间冷却可能是生死攸关的问题。例如,在卑诗省2021年热浪中死于极端热量的619人中,只有1%只有百分之一。死亡时的房屋中有空间的空间(B.C.验尸官服务2022)。
摘要:在本文中,我们分析了不断演变的道德困境的结构,并着眼于人工智能在这种背景下日益重要的作用。从分析菲利帕·富特(Philippa Foot)提出的著名电车难题实验开始,我们考虑了多年来对这一道德困境的后续变体,最终提出了有关人工智能的电车难题,其中自动驾驶汽车必须自主做出生死攸关的决定。在此过程中,我们从哲学、社会和神经科学的角度考虑了这个问题,探讨了为人类和机器构建困境问题的基础。在从功利主义和义务论的角度考虑和分析电车问题之后,我们追随 Rittel 和 Webber 的脚步,强调义务论和功利主义传统“唯一正确答案”方法的谬误,即解决方案无疑是正确或错误的,并声称道德问题由于其内在的困境性质而无法解决。通过拒绝“自相矛盾”的方法,我们发现自己正在考虑两种方法都不是绝对正确的可能性。鉴于这些前提,我们提出了一种不同的方法,主张悲剧作为一种新工具发挥核心和创造性的作用,以增强人类和自动驾驶汽车解决道德问题的方法。
伦理与自主武器系统:人类控制的伦理基础? 红十字国际委员会,日内瓦,2018 年 4 月 3 日 执行摘要 红十字国际委员会认为,必须保持对武器系统和武力使用的人类控制,以确保遵守国际法并满足伦理顾虑,各国必须紧急努力为武器系统的自主性设定限制。 2017 年 8 月,红十字国际委员会召集独立专家举行圆桌会议,探讨自主武器系统引发的伦理问题以及人类控制要求的伦理层面。本报告总结了讨论内容并强调了红十字国际委员会的主要结论。 根本的伦理问题是,人道原则和公众良知的要求是否能够让人类对使用武力的决策被计算机控制的流程有效取代,将生死攸关的决定交给机器。显然,国家和整个社会的道德决策先于并推动了战争中新的国际法律约束的发展,包括对造成不可接受伤害的武器的限制。在国际人道主义法中,人性和公众良知的概念源自马尔顿条款。作为公众良知的潜在标志,迄今为止的民意调查显示,人们普遍反对自主武器系统
会议I:生物老化主席的多样性模型:史蒂文·奥斯塔德(Steven Austad),博士学位杰出教授保护性生活赋予健康衰老研究联合导演主席,UAB Nathan Shock卓越卓越的阿拉巴马大学基本生物学卓越中心,阿拉巴马大学伯明翰大学8:35 - 9:35 AM AM Keynote Jonote Jonote Jonotation Jonotation jonuno Passos,Ph.d.d.d.d.d.Mayo诊所教授“线粒体和细胞衰老:生死攸关的问题” 9:35-10:00 AM Abbi Hernandez,博士伯明翰阿拉巴马大学的助理教授“衰老和阿尔茨海默氏病的代谢和肠道轴” 10:00-10:25 AM Daniella Chusyd,博士印第安纳大学助理教授布卢明顿“树干升起:老化研究的大象” 10:25-10:45 AM Break Break 10:45-11:10 AM Scott Ballinger,Ph.D。教授兼副院长共同领导者UAB NATHAN休克中心比较线粒体健康评估核心伯明翰阿拉巴马大学“用于确定人类和啮齿动物中的线粒体DNA造成的损伤相关分子模式(damp)水平的定量测定”