摘要 尼古拉斯·阿加尔、杰夫·麦克马汉和艾伦·布坎南都对将人类增强到远超物种典型范围的程度表示担忧。他们认为,通过提高道德地位或更强的基本权利要求,彻底增强的生物将有权享受更多、更有利的待遇。我对这些说法提出质疑,首先我认为新兴技术可能会让增强者直接控制自己的精神状态。我们目前对精神生活缺乏控制,这极大地加剧了我们的脆弱感。然后我认为应该从脆弱性的角度来看待道德地位。增强者将慢慢获得控制自己精神状态的能力,从而降低他们的脆弱性。这些彻底增强的生物将拥有更强大的能力,可能拥有比我们更有价值的内心生活。他们的脆弱性也会降低,因此,他们的道德地位将从属于我们。
卡斯帕罗夫对阵 IBM 的深蓝 (1997) - “大脑的最后一战” - 由深思发展而来,卡内基梅隆大学的计算机首次击败国际象棋大师 - 开发了动作库;通过比赛确定弱点 - 每秒可以搜索多达 2 亿个选项 - 启发了用于分析金融、分子动力学和挖掘数据的超级计算机的创建
我们的信息和通信环境未达到网络全球通信可能服务的理想。识别其病理的所有原因很困难,但是现有的推荐系统很可能发挥作用。在本文中借鉴了计算哲学的规范工具,并由自然语言处理和推荐系统的经验和技术见解所告知,我们为另一种方法提供了道德案例。我们认为,现有的推荐人会激励质量监视,集中力量,行为狭窄的牺牲品以及损害用户代理。不仅试图避免完全避免算法,或者要对当前范式进行逐步改进,还应探索一种替代范式:使用语言模型(LM)代理来源自以自然语言表达的用户的偏好和价值观来源和策划内容。使用LM代理提出了自己的挑战,包括与候选人产生,计算效率,偏好建模和及时注入相关的挑战。尽管如此,如果成功实施的LM代理可以:指导我们通过数字公共领域而不依赖大规模监视;将电源从平台转移到用户;优化重要的事情,而不仅仅是行为代理;并脚手架我们的代理商而不是破坏它。
抽象的道德学习和决策从婴儿期到老年至关重要。新兴的证据表明,在道德情况下我们的学习和决定存在重要差异,并且可以通过共同存在的基于模型的价值观和心理理论的方式来支持这些差异。在这里,我们回顾了关于道德选择和道德学习的决定神经科学文献,考虑了四个关键概念。这些概念是学习和体验道德情绪,学习并决定他人的道德特征,道德学习和决定他人以及道德影响和传染。我们使用基于价值的决策框架专注于最近的行为和神经影像学发现,以表明如何使用决策模型来确定这些概念的计算机制,揭示其神经相关性,并最终在整个寿命中提供了道德的机械学说。关键字:道德,决策,寿命,计算,学习,大脑
摘要牛群免疫的公共卫生益处通常被用作强制疫苗政策的理由。,“畜群免疫”作为一个术语有多个指南,这可能会导致歧义,包括关于其在道德论点中的作用。“牛群免疫”一词可以指(1)群豁免阈值,模型预测流行病的下降; (2)具有免疫力的人口百分比,无论是否超过给定阈值;和/或(3)集体免疫对那些免疫力较低的人提供的间接利益。此外,人群中免疫个体的积累会导致两种不同的结果:消除(用于麻疹,天花等)或流行平衡(对于Covid-19,流感等)。我们认为,个人通过疫苗接种为牛群免疫做出贡献的道德义务的力量,并通过扩展强制的可接受性将取决于如何解释“群豁免”以及有关给定疾病或疫苗的事实。除其他外,并非所有使用“牛群免疫”的用途对所有病原体都同样有效。如麻疹所示,牛群免疫阈值效应的最佳条件不适用于许多病原体无处不在(由于免疫力和/或抗原变异)。对于包括SARS-COV-2在内的此类病原体,只能期望大规模疫苗接种而不是预防新感染,在这种情况下,有助于牛群免疫的义务要弱得多,而强制性政策则较低。
摘要 伦理学家、政策制定者和公众质疑机器人等人造实体是否值得享有权利或其他形式的道德考量。到目前为止,关于这个主题的研究很少。我们在对这个主题的文献综述中确定了 294 个相关研究或讨论项目。学者们普遍认为,一些人造实体在未来,甚至现在,也值得道德考量。理由各不相同,例如担心对人造实体的影响和担心对人类社会的影响。除了传统的结果主义、义务论和美德伦理主义伦理框架外,一些学者鼓励“信息伦理”和“社会关系”方法,尽管有机会对人造实体的道德考量的细微差别进行更深入的伦理研究。相关实证数据收集有限,主要是一些关于人类当前对机器人和其他人工实体的道德和社会态度的心理学研究。这表明,在心理学、社会学、经济学和组织学研究方面存在重大差距,这些研究涉及人工实体如何融入社会以及决定如何考虑人工实体利益的因素。
摘要:本文探讨了康德道德主体性和人工智能的哲学问题。本文旨在对康德伦理学进行全面分析,以阐明康德机器的不可行性。同时,康德机器的可能性似乎与真正的人类康德主体性相冲突。我们认为,在机器道德中,“义务”应该以“意志自由”和“幸福”来履行,因为康德将人类通过“幸福”来评价我们的“自然必然性”的倾向描述为目的。最后,我们认为,康德的“意志自由”和“选择能力”不属于任何确定性的“主体性”模型,因为它们是不可侵犯的体系。结论从真正的康德伦理一开始就说明了康德人工智能主体的不可行性,而是提供了一个基于效用的康德伦理执行者。关键词:人工智能、绝对命令、选择、意志自由、康德伦理学、道德能动性、效用。摘要:Straipsnyje aptariami filosofiniai klausimai,susiję su kantiškuoju道德主题irdirbtiniu intelektu。 Straipsnio tikslas – pateikti issamią Kanto etikos analizę,kad būtų išaiškintas kantiškojo道德主题,以kaip pareigos mašinos neįgyvendinamumas。遵守道德准则,遵守道德准则。 Straipsnyje teigiama、kad mašinų 道德“pareiga” turėtų būti atliekama su “valios laisve” ir “laime”,nes Kantas rašė apie žmogaus polinkį “prigimtinę būtinybę” vertinti “laimės” kaip tikslo poziūriu。 Galiausiai straipsnyje tvirtinama,kad kantiškoji „valios laisvė“ ir „pasirinkimo galimybė“ neturi nieko Bendra su defistiniu „subjekto“ modeliu,kadangi tai esą šventi dalykai。达洛玛·伊什瓦达(Daroma išvada),慢速控制智能主题,需要与关东的相关知识和知识进行比较,以了解相关知识。关键词:智力的方向、无条件的约束、帕西林基玛斯、自由的自由、道德主体、nauda。
摘要:人工智能 (AI) 的道德问题已成为学术界和公众辩论中一个备受争议的话题。我们认为,人工智能的道德接受度不仅取决于其按照道德规范完成任务的能力,还取决于人工智能的社会地位。代理类型(人工智能、计算机程序还是人类)、性别和组织成员资格会影响道德可接受性。在一项析因调查实验中,578 名参与者对执行任务(例如癌症诊断)的代理的道德可接受性进行了评分。我们发现,使用人工智能被认为比雇用人类代理在道德上更不可接受。在高地位组织中使用的人工智能被认为比在低地位组织中使用的人工智能在道德上更可接受。计算机程序和人工智能之间没有发现差异。拟人化和性别框架都没有影响。因此,高地位组织中的人类代理获得的道德盈余纯粹基于他们在文化地位等级中的结构位置,而不管他们的实际表现如何。
鉴于这些思考也适用于非机器人人工智能系统,本文将重点讨论机器人。我所说的机器人是指可编程机器,它们使用传感器与环境交互,并且可以至少在一定程度上独立于程序员执行操作。人工智能涉及开发计算机程序,这些程序可以执行原本需要人类(或至少是有机)智能才能完成的任务。出于显而易见的原因,本文中感兴趣的机器人将实例化人工智能。假设未来的机器人将比今天的机器人先进得多,那么现在问它们要具备什么样子才能拥有道德地位并不为时过早。机器人需要具备哪些特质才能在道德上占有一席之地,并拥有权利或至少是道德上重要的利益?我认为,如果机器人获得了自己的利益——并且,总的来说,获得了对它们来说很重要的福利——它们就会获得道德地位,而这只有在它们变得有感知能力时才会发生。此外,为了拥有知觉,机器人必须具备意识,因为知觉是具有愉快或不愉快体验的意识能力。然而,我们如何知道机器人是否有意识,这是一个巨大的认识论问题。此外,还有一个实际的困境。机器人技术的发展着眼于服务于人类的利益——例如,为我们做繁琐的家务,执行复杂的医疗程序,提供陪伴,参与危险的军事行动。然而,使机器人精通其分配的任务的进步,最终可能会将它们转变为具有自己兴趣的知觉生物。而这种可能性将引发对剥削甚至奴役的合理担忧。刚刚确定的问题——未来机器人(和其他人工智能系统)可能的道德地位、了解它们是否有意识的挑战,以及对如果存在这些人工制品,我们会错误地利用这些人工制品的担忧——已经在相当成熟的文献中进行了探讨。那么目前的讨论还能增加什么呢?第一个预期贡献是帮助引起生物伦理学家和其他从事医学人文学科的人员(包括医学专业人员)对这些问题的关注。关于这一主题的成熟文献似乎主要由人工智能和人工智能伦理学专家阅读,很少有文章发表在更一般的伦理学期刊上。(有关最近一篇有助于向生物伦理学和医学人文学科读者介绍认识论问题的文章,请参阅 Shevlin 2021)。第二个预期贡献是以独特的方式处理这些问题。虽然我的几个主要想法与其他人相同(如引用所示),但对道德地位和自主性的分析、对意识和感知区别的强调、我提出的关于道德地位观点的建议,以及关于机器人伦理与动物伦理相似之处的评论都是我自己的。剩下的讨论首先探讨道德地位的标准,批评几种模式,然后提出并简要捍卫一种基于利益的
一个长期存在的经济问题是,通过保险或其他减少伤害的干预措施来保护人们免受伤害,如何导致潜在的抵消行为变化(事前道德风险)。免疫接种是一种保险,因为个人在接种疫苗时需要承担前期费用,但如果他们接触到疫苗可预防的疾病,它可以保护个人。在这项研究中,我们实证评估了 COVID-19 疫苗的事前道德风险效应。首先,利用老年人口早期接种资格导致 65 岁时疫苗接种率不连续这一现象,我们比较了 65 岁及以上和 65 岁以下人群的疫苗接种率和风险缓解行为。我们没有发现 65 岁及以上人群风险缓解行为减少的证据。其次,利用不同年龄段人群接种疫苗资格时间的州级差异,我们估计 COVID-19 疫苗接种对成年人口的风险缓解行为没有影响。我们的研究结果表明,COVID-19 疫苗在短期内产生的道德风险效应微乎其微。