主持人 AI 情境层面:线上 vs 线下 客户层面:年龄和性别 产品层面:利益(享乐主义 vs 功利主义)、参与度(低 vs. 高) 公司层面:类型(服务业 vs 制造业) 国家层面:文化价值(权力距离、个人主义、男性气质和不确定性规避) 控制变量:出版状态和样本构成
本文探讨了日益智能的自动化机器取代人类劳动力并压低工资的情景对劳动力市场和分配的影响。我们列出了这种情景下出现的三个问题,并评估了最近对这些问题的预测和反对意见。然后,我们分析了功利主义社会规划者在这些担忧开始成为现实时将如何分配工作和收入。随着自动化机器产生的收入增加和劳动力价值下降,功利主义规划者发现逐步淘汰工作是最佳选择,从劳动生产率低和工作满意度低的工人开始,因为他们在享受休闲方面具有比较优势。这与强迫劳动生产率低的个人工作的福利制度形成了鲜明对比。如果工资大幅下降,避免大规模贫困将需要除劳动力市场之外的其他收入分配方式,无论是通过足够分散的资本所有权还是通过福利。如果接受者享受工作便利,例如结构、目的和意义,他们仍然可以为了工作而工作。如果工作能带来社会关系或政治稳定等正外部性,或者个人因为内部因素而低估工作的好处,那么社会规划者就会激励工作。然而,从长远来看,规划者可能能够通过采用其他方式提供这些福利来实现更高水平的社会福利。
摘要:在本文中,我们分析了不断演变的道德困境的结构,并着眼于人工智能在这种背景下日益重要的作用。从分析菲利帕·富特(Philippa Foot)提出的著名电车难题实验开始,我们考虑了多年来对这一道德困境的后续变体,最终提出了有关人工智能的电车难题,其中自动驾驶汽车必须自主做出生死攸关的决定。在此过程中,我们从哲学、社会和神经科学的角度考虑了这个问题,探讨了为人类和机器构建困境问题的基础。在从功利主义和义务论的角度考虑和分析电车问题之后,我们追随 Rittel 和 Webber 的脚步,强调义务论和功利主义传统“唯一正确答案”方法的谬误,即解决方案无疑是正确或错误的,并声称道德问题由于其内在的困境性质而无法解决。通过拒绝“自相矛盾”的方法,我们发现自己正在考虑两种方法都不是绝对正确的可能性。鉴于这些前提,我们提出了一种不同的方法,主张悲剧作为一种新工具发挥核心和创造性的作用,以增强人类和自动驾驶汽车解决道德问题的方法。
宗教领袖、伦理学家和神学家在这一努力中发挥着重要作用。他们所信奉的宗教将人类固有的尊严视为上帝赋予的,是其社会关系和发展概念的核心。他们的道德方法不是功利主义的,而是绝对的:我们寻求人类繁荣,因为我们的造物主要求我们这样做。我们寻求最脆弱者的福祉,因为每个人,无论多么弱小,都有上帝的精神。2019 年 12 月签署的《新美德联盟宪章》表达了对每个人的价值和福祉的共同承诺。
不幸的是,许多人认为卫生部的重点是疾病和不健康和疾病。卫生服务的组织方式和以发病率形式表达的国家健康指标往往进一步强化了这种观点。无论是从事临床服务、健康促进还是卫生政策制定,卫生专业人员都有责任改变这种以疾病为导向的健康观,更好地传达健康的价值,并与他人一起追求幸福。功利主义公共卫生政策的制定旨在为最多的人谋福利,预防胜于治疗,这不仅需要善意和精明,还需要同等的经验和知识。
Primum non nocere(希波克拉底,公元前 370 年)。 义务论(伊曼纽尔·康德,1804 年)。 功利主义(杰里米·边沁和 JS 密尔,1832 年)。 人体实验(纽伦堡法典,1947 年)。 人体受试者研究(贝尔蒙特报告,1976 年)。 原则主义(Beauchamp 和 Childress,1969 年)。 护理伦理(Joan Tronto,1993 年)。 赫尔辛基宣言(WMA,1964 年)。 CIOMS(WHO 和联合国教科文组织,1949 年)。 15 项道德原则(联合国教科文组织,2005 年) 良心拒服兵役(ICoME WMA 2022 年)
摘要:在本次会议上,我们想在哲学论证的框架内首次提出与量子技术伦理相关的问题。这些技术还不是很发达。它们仍然属于科学研究的逻辑(以及与之相关的伦理)。但是,如果我们听媒体的话,量子技术的革命正在发生,或者很快就会发生。当这些技术进入市场创新阶段时,将适用什么样的伦理?最后,我们如何根据科学技术研究当前提出的科学与社会共同构建的假设,设想一种基于这些技术的传播以及这些技术在社会中实施的利益相关者之间的互动的伦理?关键词:量子、物理学和计算机科学、技术、伦理、创新、功利主义
人工智能 (AI) 是一个不断发展的结构,它能够改变和主宰我们的生活、工作和娱乐方式。商业决策者不断努力解决如何最大限度地提高企业收入和利润以实现利益相关者的满意度,同时最大限度地降低内部和外部组织风险。企业领导者了解他们的 C-Suite 角色,并且通常支持实施 AI;但许多人并没有考虑他们的 AI 决策如何影响组织网络文化和员工的福祉。本文探讨了 AI 对员工的道德影响、领导者将 AI 纳入整体网络文化的决策背后的理念,以及员工对机器人、机器学习、专家系统和语言处理算法如何影响他们生计的主要担忧。我们从社会契约、功利主义、义务论和现象学的几种哲学理论的角度来应对这一研究挑战,以更好地了解每种方法如何影响领导者的明智决策,以确定是否有可能在考虑员工的福利和未来的同时在道德上平衡创新。对文献的解读表明,存在一些关键的潜在哲学主题和模式,这些主题和模式与负责任且合乎道德地实现健康的人工智能网络文化有关。研究结果表明,成功实施工作场所人工智能包括将战略业务目标与开放式沟通和员工培训相结合,以提高人工智能接受度并降低裁员和失业风险。我们推测,支持领导层和员工之间信任和透明的行为实践的混合哲学框架可以产生一种合乎道德的工作场所解决方案,支持人工智能,即成功地将技术融入员工日常生活体验的网络生活世界。关键词:人工智能、网络文化、网络伦理、义务论、社会契约论、功利主义、现象学、网络生活世界、组织工作场所
被认为可以降低开发的总成本。也就是说,它们必须被视为可以降低最终错误的数量,并且如果不进行这些操作,则感知成本必须高于执行这些操作的成本。。首先,讨论关于并发程序的人们可能希望能够证明什么。然后,提出了一个与这种功利主义观点一致的观察结果。这些在对系统规范的覆盖范围上有所不同,有些可以用作设计系统功能的基础。也就是说,程序的正式规范。接下来,编写正式规范的行为只是为了证明所作的决策与程序规范之间的一致性。最后,值得注意的是,其中一些技术在第一次验证尝试之前就已经与自动化工具(如验证器)相关联,目的是获得正确的系统功能。