1. ____ 公共媒体:是,并且是 DVD:我选择将体面移交过程录制并制作 DVD 播放:并且我同意;允许公共媒体的代表录制该事件以便可能发布给当地媒体。我了解在此过程中不会看到或识别任何家属。体面移交的公告将发送给媒体机构,媒体成员可能会在场,但是,他们不会出现在家属面前,拍摄或与家属交谈。(完整记录) 2. ____ 公共媒体:否,并且是 DVD:我选择将体面移交过程录制并制作 DVD 播放;我不希望允许任何公共媒体代表在场。但是,如果选择此选项,内部报道将受《信息自由法》约束。这意味着外部媒体和公众可以要求获得 DVD 副本。(有限记录) 3. ____ 不使用媒体也不使用 DVD:我选择不录制体面移交过程。 (无记录)
各种形式的人工智能 (AI) 已经被部署到临床环境中,对其未来医疗用途的研究也在加速进行。尽管呈现出这样的发展趋势,但仍需要更多研究来了解日益增多的 AI 决策对患者的影响。特别是,AI 的非个人性质意味着,将其部署在高度敏感的使用环境(例如医疗保健领域)会引发与患者对(不)有尊严的治疗的看法相关的问题。我们通过一项实验性小插图研究来探讨这个问题,该研究比较了个人在各种医疗决策环境中对受到有尊严和尊重的对待的看法。参与者接受 2(人类或 AI 决策者)x 2(积极或消极的决策结果)x 2(诊断或资源分配医疗保健场景)的析因设计。我们发现了“人类偏见”(即偏好人类而不是 AI 决策者)和“结果偏见”(即偏好积极结果而不是消极结果)的证据。然而,我们发现,对于尊重和有尊严的人际待遇的看法,诊断案例中谁做出决定更重要,资源分配案例的结果也更重要。我们还发现,人们始终将人类视为合适的决策者,而人工智能则被视为非人性化的决策者,并且参与者认为他们在接受诊断决策时比在接受资源分配决策时受到更好的待遇。开放式文本响应的主题编码支持了这些结果。我们还概述了这些发现的理论和实践意义。
摘要 在人力资源管理 (HRM) 中使用人工智能 (AI) 进行决策引发了以下问题:员工如何看待这些决策的公平性以及他们是否感受到尊重的待遇(即互动公正)。在这项采用开放式定性问题的实验性调查研究中,我们研究了六个 HRM 职能中的决策,并操纵决策者(AI 或人类)和决策效价(正面或负面),以确定它们对个人互动公正、信任、非人化体验以及对决策者角色适当性的看法的影响。就决策者而言,使用人类决策者而不是 AI 通常会产生更好的尊重待遇感。就决策效价而言,经历积极决策而非消极决策的人通常会产生更好的尊重待遇感。在这些情况发生冲突的情况下,在某些指标上,人们更喜欢积极的 AI 决策而不是消极的人类决策。定性反应表明人们如何识别 AI 和人类决策的公正问题。我们概述了对理论、实践和未来研究的影响。
在工作中使用人工智能为工人带来了许多机会。我们提出的数据互惠提案将纠正工作中数据权力的不平衡,同时也将使工人自己受益于人工智能工具。例如,通过进行数据分析,可以证明并支持工会争取更好的工作条款和条件。
执行摘要根据 22 MRS § 2140(17),卫生与公众服务部(以下简称“部”)应生成并向公众提供根据缅因州尊严死亡法案(以下简称“法案”)收集的信息的年度统计报告。该部门必须在每年 3 月 1 日前向对健康事务具有管辖权的立法机关联合常设委员会提交一份报告副本。本报告适用于在 2023 日历年完成书面申请以加速死亡药物的患者。在日历年内完成口头申请但未提出书面申请的患者将被纳入下一年度的报告中。本报告提供有关患者主导护理使用情况的统计数据,即 22 MRS 第 418 章。具体而言,本报告提供有关据称符合该法案要求的患者的信息、符合条件的患者死亡的根本原因以及为符合条件的患者开具或分发的终止生命药物处方数量。 2023 年,有 80 名患者启动了该流程(比 2022 年多 19 名)。四人在提出书面请求之前去世。截至本报告撰写时,仍有 9 名患者活着,但其中 3 名在 2023 年底完成了要求,目前还未过去 6 个月。患者居住在 14 个县。患者未居住的两个县是皮斯卡塔奎斯和华盛顿。患者年龄较大。男性和女性的比例没有显著差异,癌症是报告最多的疾病。引言第 129 届缅因州立法机构通过了 2019 年第 271 章公共法,称为《尊严死亡法案》(附录 A)。该法案允许医生向被诊断患有绝症的缅因州居民开药,目的是让患者自行服用药物,以加速患者死亡。该法案规定了患者和医生合法采取这一行动的条件。这些条件包括但不限于患者向医生提出口头和书面请求、提醒过程中的所有步骤必须是自愿的并且患者有能力做出这样的决定、第二位医生确认诊断和预后、以及合格证人对这些步骤的证明。
作者讨论了人工智能(AI)在各个领域,特别是在健康领域日益增长的影响力,以及在其变得至关重要之前从伦理和生物伦理角度解决其影响的紧迫性。它还探讨了如何将人类尊严(天主教生物伦理学和世界人权宣言的核心原则)作为人工智能监管的基石。人工智能在医疗保健领域的应用引发了道德挑战,例如数据偏见和不公正风险。强调需要开发一种促进透明度、责任感和尊重人类尊严的“算法学”或算法伦理。此外,它还强调了人工智能对医患关系、医疗行业实践和治疗决策的影响,并指出人工智能不应取代人类的判断。最后,强调需要对医生和卫生专业人员进行人工智能的道德使用培训,将生物伦理原则融入他们的培训中,以确保技术服务于共同利益而不损害人类尊严。
5.1工作中的尊严 - 这是关于大学社区的所有成员都受到尊严和尊重的对待,并防止他们受到不良或不公平的对待。平等 - 平等是机会平等,并建立一个包容性的社会,每个人都可以参与并有机会发挥自己的潜力。多样性 - 多样性一词的意思是“多样化和不同”,因此“多样性”不仅仅是平等。这是关于重视多样性和个体差异,创造一种文化,环境和实践,这些文化,环境和实践尊重和价值差异,以使社会,组织和个人的利益受益。5.2歧视类型:直接歧视 - 直接歧视发生时,当某人的对待比另一个人受到保护的特征不那么受保护时,就会发生直接歧视。直接通过关联歧视 - 这是对某人的直接歧视,因为他们与拥有受保护特征的另一个人相关联。直接通过感知歧视 - 这是对个人的直接歧视,因为其他人认为自己具有特定的特征,即使该人实际上没有该特征,也适用。间接歧视 - 当有条件,规则,政策或实践适用于所有人(尤其是具有共享受保护特征的人)时,这可能会发生。间接歧视是合理的。骚扰 - 这是与相关的受保护特征有关的不必要的行为,其目的或效果是违反个人的尊严或为该人创造一个令人生畏,敌对,贬低,羞辱,羞辱或冒犯的环境。