2023 年 9 月 12 日,肺癌患者教育与宣传 (LEAP) 和新加坡肺癌联盟 (LCCS) 主办了“希望之声”患者倡导者圆桌会议,来自世界各地的肺癌倡导者以及国际肺癌研究协会 (IASLC) 的成员出席了会议。会议强调了新加坡肺癌护理过程中面临的关键挑战,特别是患者倡导者在政策制定中的作用有限、肺癌诊断延迟以及获得先进治疗的机会有限。该小组借鉴全球最佳实践,概述了解决这些问题和加强新加坡肺癌倡导的可行建议。
摘要 神经技术可能干扰我们的大脑和思维,这引发了人们对保护我们免受这些技术(误用)的道德权利的质疑。最近受到关注的一项道德权利是精神完整权。尽管心灵的形而上学界限是一个激烈争论的问题,但对这一道德权利的大多数辩护似乎都假设了一种内在主义(基于大脑)的心灵观。在本文中,我们将研究对心灵的扩展解释对精神完整权及其对神经技术的保护可能意味着什么。我们认为,从扩展的心灵角度来看,精神完整权的范围将大大扩大,这意味着神经技术将不再对该权利构成特别严重的威胁。此外,一些神经技术甚至可能受到精神完整权的保护,因为这些技术将成为心灵的一部分。我们得出结论,采用扩展的心智理论对于精神完整权的保护范围和抵御神经技术的能力具有重要意义,表明关于心智的形而上学假设在确定该权利所提供的道德保护方面发挥着重要作用。
为了帮助实现这些优先事项,我们与众多社区和志愿部门合作伙伴共同制定了这项赋权社区战略,其中包括北萨默塞特郡联合网络、北萨默塞特郡镇和教区议会的代表以及北萨默塞特郡福祉集体。
积极的趋势1:家庭成年学校的喂养计划需要国际捐助者(主要是世界食品计划(WFP))与农业和教育部以及女性小型农民之间的合作。这是一个例子,说明了如何通过直接向县级学校的喂养提供可靠的市场链来促进妇女更大的融入经济市场。一个重要的组成部分是妇女合作农业群体的自组织,以加工和耕种食物。这种喂养计划的方法以农业群体的现有合法性为基础,并通过正式安排提供食物来增强他们的认可。这也为妇女农业团体进行投资或扩大业务提供了明显的动力,因为她们可以依靠与教育部和粮食计划署的协议。这代表了依靠贷款(来自小额信贷储蓄集团或正式金融机构)来融资增加投入的替代方案。
自 1980 年以来,城市资源研究所 (URI) 一直致力于实现一个没有家庭暴力、无家可归、贫困和创伤的世界的愿景,在那里,纽约市的个人、家庭和社区都安全、稳定、繁荣。URI 致力于预防、干预和服务等各个方面,以增强个人、家庭和社区(特别是有色人种社区和其他被剥夺权利的人群)的安全和恢复能力。每晚,我们为 1,100 多名家庭暴力幸存者提供服务和保护,并为无家可归的家庭提供 1,000 多张额外床位。URI 是美国最大的家庭暴力庇护所服务提供商,也是纽约州历史最悠久的机构,拥有 12 个家庭暴力庇护所(即将增加到 14 个)和 9 个无家可归者庇护所。我们有超过 550 名一线员工每天为客户提供帮助。
报告由高级社会保护专家 Nahla Zeitoun 领导的团队编写,并参考了以下人士的意见:Baseera 首席执行官兼董事总经理 Magued Osman、明尼苏达大学规划与公共事务教授 Ragui Assad、性别专家 Nemat Guenena 和 Ahead of the Curve (ATC) 联合创始人 Dina El Sherif。团队要感谢埃及妇女权利中心主席 Nehad Aboul Komsan、Baseera 执行副总裁 Hanan Girgis 和纽约城市大学的 Heba Abu Shneif,他们慷慨地贡献了专业知识。以下 ATC 工作人员领导并参与了数据收集、分析和报告内容:联合创始人 Mohamed El Kalla;董事总经理 Nihal Sharara;副董事总经理 Salma El Sayeh;助理 Karen Fanous。衷心感谢 Nemat Guenena 和 Nihal Sharara 在极短的时间内完成了细致的编辑工作。
摘要 神经技术可能干扰我们的大脑和思维,这引发了人们对保护我们免受这些技术(误用)的道德权利的质疑。最近受到关注的一项道德权利是精神完整权。尽管心灵的形而上学界限是一个激烈争论的问题,但对这一道德权利的大多数辩护似乎都假设了一种内在主义(基于大脑)的心灵观。在本文中,我们将研究对心灵的扩展解释对精神完整权及其对神经技术的保护可能意味着什么。我们认为,从扩展的心灵角度来看,精神完整权的范围将大大扩大,这意味着神经技术将不再对该权利构成特别严重的威胁。此外,一些神经技术甚至可能受到精神完整权的保护,因为这些技术将成为心灵的一部分。我们得出结论,采用扩展的心智理论对于精神完整权的保护范围和抵御神经技术的能力具有重要意义,表明关于心智的形而上学假设在确定该权利所提供的道德保护方面发挥着重要作用。
计算技术的最新进展引发了人们对权力从人类转移到机器决策者的担忧。从监禁到贷款审批再到大学申请,企业和国家行为者越来越依赖机器学习工具(人工智能的一个子集)来分配商品和执行强制措施。人们认为机器学习工具正在以牺牲重要个人利益的方式取代甚至消灭人类机构。对这种担忧的一种新兴法律回应是人类决策权。欧洲法律已经在《通用数据保护条例》中采纳了这一想法。美国法律,特别是在刑事司法领域,已经朝着同一方向发展。但没有一个司法管辖区准确定义这项权利的含义,也没有为其创建提供明确的理由。本文探讨了人类决策权的法律可能性。我首先定义了该权利应用于国家行动的技术可行性条件。为了理解其技术谓词,我指定了机器决策与人类决策不同的边界。这种技术背景化使我们能够细致入微地探索人类和机器决策之间的差距是否具有规范意义。基于这种技术核算,我随后分析了人类决策权的规范性利害关系。我考虑了三个潜在的规范性理由:(a)呼吁个人利益参与和给出理由;(b)担心国家行动的推理不足或个性化;(c)基于负面外部性的论点。仔细分析这三个理由表明,国家采用人类决策权没有普遍的理由。对于缺乏充分理由或不准确的决定的规范性担忧,对法律想象力有着特别强大的影响力,最好通过其他方式来解决。同样,对于算法工具造成社会权力不对称的担忧,也不能通过人类决策权来抵消。事实上,现有证据并没有坚定地支持人类决策权,而是暂时指向一种与之相反的“经过良好校准的机器决策权”,认为它最终在规范上更有依据。