本文调查了人类与AI驱动的聊天机器人的互动如何冒犯人的尊严。当前的聊天机器人,由大语言模型(LLM)驱动,模仿人类语言行为,但缺乏真正的人际际尊重所必需的道德和理性能力。人类倾向于拟人化聊天机器人 - 的确,聊天机器人似乎是故意设计的,以引起这种反应。结果,人类对聊天机器人的行为类似于道德药物之间互动的典型行为。借鉴了尊严的二人关系说明,我们认为以这种方式与聊天机器人进行交互与用户的挖掘不兼容。我们表明,由于第二个人的尊重是基于对二个人道德权威的相互认可,因此鉴于缺乏互惠性,以传达第二个人的尊重的方式行事以道德上有问题。因此,这种聊天机器人的互动等于微妙但有明显的侵犯自尊的行为 - 我们有责任表现出自己的尊严。我们通过讨论四个实际的聊天机器人用例(信息检索,客户服务,咨询和陪伴)来说明这一点,并提出,与聊天机器人进行这种互动的社会压力越来越多,迄今对人类尊严的威胁不足。
经过多年的公众咨询和审议,欧盟委员会提出了全面监管人工智能 (AI) 的法律框架。最引人注目的是,人工智能高级专家组 (AI HLEG) 自 2018 年以来就制定了道德准则和政策建议。虽然中国和美国等国家或欧洲委员会等国际组织正在制定法律框架来规范人工智能的开发和使用,但欧盟委员会于 2021 年 4 月 21 日提出的提案(人工智能法案或 AIA)似乎使联盟处于最有力的地位,可以为一项关键的新兴技术制定具有全球意义的监管标准。在简要总结了未来监管的起源、背景和主要特征之后,本文探讨了“布鲁塞尔效应”是否会体现在突破性的人工智能监管中,或者欧盟及其成员国是否会冒着仓促采用无能的法律框架的风险,而这项技术对社会的影响仍未得到充分理解。此外,拟议的
气候变化的毁灭性影响正在全球感受到,并且由于气候条件恶化,自然灾害正在扩大。人类活动在全球范围内导致了有害的环境影响,证据揭示了未来危害更大的预测。低谎言的小岛发展中国家(SID)和沿海社区特别容易受到气候变化的影响,包括海平面上升,高强度旋风,国王潮汐和珊瑚漂白剂。1许多岛屿社区,尤其是土著社区,生活在失去文化和身份的不断威胁下,因为环境退化迅速侵蚀了其存在的痕迹。2此外,由于环境灾难,妇女和女孩以及残障人士面临的脆弱状态更高。3没有州,没有城市,没有社区必须与悬挂在他们身上的一把Damocles一起生活。对于许多人来说,有尊严的生命权的概念(RTLWD)4已经处于危险之中。
执行摘要根据 22 MRS § 2140(17),卫生与公众服务部(以下简称“部”)应生成并向公众提供根据缅因州尊严死亡法案(以下简称“法案”)收集的信息的年度统计报告。该部门必须在每年 3 月 1 日前向对健康事务具有管辖权的立法机关联合常设委员会提交一份报告副本。本报告适用于在 2023 日历年完成书面申请以加速死亡药物的患者。在日历年内完成口头申请但未提出书面申请的患者将被纳入下一年度的报告中。本报告提供有关患者主导护理使用情况的统计数据,即 22 MRS 第 418 章。具体而言,本报告提供有关据称符合该法案要求的患者的信息、符合条件的患者死亡的根本原因以及为符合条件的患者开具或分发的终止生命药物处方数量。 2023 年,有 80 名患者启动了该流程(比 2022 年多 19 名)。四人在提出书面请求之前去世。截至本报告撰写时,仍有 9 名患者活着,但其中 3 名在 2023 年底完成了要求,目前还未过去 6 个月。患者居住在 14 个县。患者未居住的两个县是皮斯卡塔奎斯和华盛顿。患者年龄较大。男性和女性的比例没有显著差异,癌症是报告最多的疾病。引言第 129 届缅因州立法机构通过了 2019 年第 271 章公共法,称为《尊严死亡法案》(附录 A)。该法案允许医生向被诊断患有绝症的缅因州居民开药,目的是让患者自行服用药物,以加速患者死亡。该法案规定了患者和医生合法采取这一行动的条件。这些条件包括但不限于患者向医生提出口头和书面请求、提醒过程中的所有步骤必须是自愿的并且患者有能力做出这样的决定、第二位医生确认诊断和预后、以及合格证人对这些步骤的证明。
1. 开发双语研究型学习和电子学习材料。 2. 研究有效的经期疼痛信息是什么样的。 SPPINN 课程项目旨在为学校护士和其他年轻人可能向其寻求严重经期疼痛建议的人开发教育材料,帮助他们找到适当的服务和支持。最终结果是确保每个人都能获得或受益于威尔士提供的严重经期疼痛治疗和支持。 威尔士子宫内膜异位症网站 介绍了子宫内膜异位症的背景。据称,在威尔士,诊断子宫内膜异位症平均需要 10 年时间。 威尔士子宫内膜异位症网站包含基于证据的信息和建议,并附有个人故事,适合任何有兴趣进一步了解该疾病的人。该网站完全是双语的,内容易于阅读。十分之一的女孩在月经期间会感到疼痛或其他因素,这可能是由于子宫内膜异位症引起的。正在开发一种报告工具,以尝试减少人们被诊断的平均时间。
企业的驱动力是什么?1 简单地说,就是利润。2 但目的是什么?3 就业分类对企业的利润有重大影响。4 全球公认的两种最常见的工人分类是独立承包商和雇员。5 这种分类决定了个人是否有权获得报酬、是否有资格享受福利以及是否受到歧视保护。6 所有这些因素都会让雇主付出代价,并导致其整体利润减少。7 在二十世纪,就业分类在特定领域受到了激烈的诉讼:零工经济。8 零工经济主要在二十一世纪发展起来,为工人提供了从事灵活和临时工作的能力。9 对一些人来说,灵活性是有益的,因为它允许人们
男性 207 (56.4) 152 (50.0) 1,152 (52.9) 1,511 (53.1) 女性 160 (43.6) 152 (50.0) 1,024 (47.1) 1,336 (46.9) 年龄 18–34 1 (0.3) 1 (0.3) 12 (0.6) 14 (0.5) 35–44 7 (1.9) 3 (1.0) 38 (1.7) 48 (1.7) 45–54 18 (4.9) 13 (4.3) 122 (5.6) 153 (5.4) 55–64 40 (10.9) 29 (9.5) 372 (17.1) 441 (15.5) 65–74 113 (30.8) 96 (31.6) 662 (30.4) 871 (30.6) 75–84 116 (31.6) 101 (33.2) 606 (27.8) 823 (28.9) 85+ 72 (19.6) 61 (20.1) 364 (16.7) 497 (17.5) 年龄中位数(范围) 75 (29-102) 75 (29-99) 73 (25-102) 73 (25-102) 种族和民族 白种人 343 (93.5) 293 (96.4) 2,091 (96.3) 2,727 (96.0) 非裔美国人 2 (0.5) 1 (0.3) 1 (0.0) 4 (0.1) 美洲印第安人 2 (0.5) 2 (0.7) 4 (0.2) 8 (0.3) 亚裔 7 (1.9) 5 (1.6) 32 (1.5) 44 (1.5) 太平洋岛民 1 (0.3) 0 (0.0) 1 (0.0) 2 (0.1) 其他 2 (0.5) 0 (0.0) 6 (0.3) 8 (0.3) 两个或多个种族 2 (0.5) 1 (0.3) 8 (0.4) 11 (0.4) 西班牙裔(任何种族) 8 (2.2) 2 (0.7) 28 (1.3) 38 (1.3) 未知 0 0 5 5 婚姻状况 已婚(包括已登记同居伴侣)
摘要 在人力资源管理 (HRM) 中使用人工智能 (AI) 进行决策引发了以下问题:员工如何看待这些决策的公平性以及他们是否感受到尊重的待遇(即互动公正)。在这项采用开放式定性问题的实验性调查研究中,我们研究了六个 HRM 职能中的决策,并操纵决策者(AI 或人类)和决策效价(正面或负面),以确定它们对个人互动公正、信任、非人化体验以及对决策者角色适当性的看法的影响。就决策者而言,使用人类决策者而不是 AI 通常会产生更好的尊重待遇感。就决策效价而言,经历积极决策而非消极决策的人通常会产生更好的尊重待遇感。在这些情况发生冲突的情况下,在某些指标上,人们更喜欢积极的 AI 决策而不是消极的人类决策。定性反应表明人们如何识别 AI 和人类决策的公正问题。我们概述了对理论、实践和未来研究的影响。
过去三十年见证了神经科学和神经技术的非凡发展。这些进步让我们对大脑的功能及其与行为的关系有了新的认识。通过允许直接访问心理数据和对大脑进行新形式的干预,这些发展具有巨大的潜力来改善患有神经系统疾病的患者的福祉。此外,人工智能 (AI) 技术与大脑活动数据的融合正在加速我们对人类行为背后的心理过程的理解。神经科学和人工智能融合产生的新知识及其衍生工具在开发新的神经系统疾病诊断、预防或治疗方法方面非常有前景。然而,这些技术,特别是脑机接口 (BCI) 和允许获取和解释大脑数据的技术,对人类的基本权利提出了前所未有的挑战,例如我们精神生活的隐私、思想自由、免受歧视的自由、免于自责的自由和自决权,仅举几例。最终,这些发展可能直接危及人类尊严,因为它们关系到人类人格和身份的核心。本研究主题的关键问题可以表述如下:我们如何才能利用神经技术和人工智能的治疗和诊断前景,而不会危及人类尊严和人权?换句话说,我们如何才能使这些技术进步与我们所谓的“精神自由”相兼容,从而包括个人身份、精神隐私、认知自由、心理连续性、精神完整性等价值观?什么样的政策才适合保证这种兼容性?立法者和国际人权机构应如何应对这些挑战?更具体地说,我们是否需要在这一领域发展新的人权?或者,更温和地说,立法者是否应该扩大现有的权利,以涵盖神经技术带来的一系列新问题?本研究主题旨在通过汇集哲学、神经伦理学、心理学、法律和神经科学等相关学科的研究人员来讨论这些难题。 Ienca 是“神经权利”概念的先驱之一,与 Roberto Andorno(参见 Ienca 和 Andorno,2017 年)以及神经技术伦理工作组(又名 Morningside