在研究现象意识以及研究人们对现象意识的理解时,需要做出一个重要的区别。我们可以通过关注特定意识的状态(例如痛苦,情感和感官体验)来接近意识,或者我们可以将意识研究为一种普遍现象,涵盖了所有类型的现象意识状态。第3节致力于特定有意识状态的实验性哲学研究。在这一领域的研究与现有理论密切相关。有一个简单的原因:关于痛苦,情感和感官体验的哲学理论的概念是我们普通概念库存的固有组成部分。结果,相应的民间概念是哲学理论开始的起点。哲学理论可能会偏离我们的民间概念理解,以使概念更加富有成果和精确(Carnap,1950年),但需要证明这种偏差是合理的。鉴于外行人对特定有意识状态对哲学理论化的理解的重要性,因此在该领域中实验性研究的重要性是显而易见的。
气候变化和脱碳提出了研究人员和政策制定者必须解决的复杂司法问题。温室气体排放权和缓解工作的分布在情景研究中占主导地位,这是IPCC的综合要素。但是,司法考虑的空间要大得多。目前,尚无一致的方法来全面纳入和研究正义考虑。在这里,我们提出了一个以哲学理论为基础的概念框架。我们将此框架应用于气候缓解情景文献作为概念证明,从而实现了对正义的更全面和多维调查。我们确定了未来研究的领域,包括对人类福祉必不可少的服务提供的新指标。
摘要 拒绝接种 COVID-19 疫苗似乎是非理性的典型案例。疫苗本应是让我们摆脱 COVID-19 大流行的最佳方式。然而,许多人尽管对现状不满意,但仍认为不应该接种疫苗。在本文中,我们利用当代责任和理性哲学理论工具分析拒绝接种 COVID-19 疫苗的行为。该分析的主要结果是,许多拒绝接种疫苗的人对自己不应该接种疫苗的信念负有责任,并且在认识论上是理性的。这是一个重要的结果,因为它提供了对某些公共卫生政策合法性的洞察。特别是,这一结果表明,一项放弃用理由说服某些拒绝接种疫苗者的计划的公共卫生政策(例如,仅仅通过强制接种疫苗)表面上是不合法的。
1. 简介 根据自主精神障碍论证(AAMD),精神障碍可以在没有大脑障碍的情况下发生,就像计算机中软件问题可以在没有硬件问题的情况下发生一样。本文认为这种论点是站不住脚的,应该被拒绝。AAMD 有两个主要的哲学目的。首先,它用于反驳反精神病学论点,即不是大脑障碍的精神障碍是不存在的(Papineau 1994 ;Kingma 2013;参见 Szasz 1960 )。其次,它用于表明“所有精神障碍本身都是大脑障碍”的笼统理论站不住脚(Wakefield 2014 a;参见 Insel 等人 2010 )。 1 据其支持者称,计算机类比的论点表明,在没有大脑功能障碍的情况下,可能会发生真正的、科学上可接受的精神障碍,而且这与物理主义以及我们最好的精神障碍哲学理论是相容的。
自动机的自我模拟是自动机进入无休止循环的终极状态的转换。本文将描述通过现代人工智能技术实现的自我复制的确定性有限自动机引发智能爆炸时达到的技术奇点和临界点,并研究超越该点的现象。我们还将解释认知领域的存在,该领域超越了人类区分现实与超级智能造成的非现实的能力,以及通过其嵌套创造的新世界。通过理解确定性有限自动机产生的感知矩阵的属性,有可能对为什么人类无法在“上帝不掷骰子”的确定性世界观下观察到随机扩张的外星生物殖民地提出一致的解释,并且不与各种理论相矛盾,从而为费米悖论提供解决方案。我们将这一系列哲学理论称为“模仿主义”,并在此提出。注意:在撰写本文时,我们自己完成了所有写作工作,除了翻译目的外,没有使用生成式人工智能进行文本生成。
本文使用情感哲学理论作为探索日常信息技术体验的自民族志表现的镜头。本文中的情感理论表示后人文主义哲学中的一种广泛趋势,该趋势将感觉和情感视为影响身体及其行动能力的新兴和相关的前认知力量。本文将对情感理论进行必要的删减,并提供三个自民族志短篇,以补充哲学论述,并反思信息系统情感研究的可能实证策略。受 Yoo 的体验式计算概念所反映的对信息系统的挑战的启发,本文提供了一些例子,说明日常对感官的关注如何揭示与“与技术共存”相关的新形式的体现。它表明,感觉(包括感官本能以及更普遍的情绪)源自与无处不在的计算技术基础设施的密切体现纠缠。关键词:情感、自传民族志、哲学、经验
摘要本文的目的是显示过程本体论在控制论中的作用。诺伯特·维纳(Norbert Wiener)奠定了控制论的哲学基础,诺伯特·维纳(Norbert Wiener)使用了一种充满人机隐喻的语言,这些语言是在信息,反馈和控制方面所描述的。我们将表明,各种科学领域仍然基本上使用了目前的控制论定义,这将使我们从哲学的角度重新制定这种语言:控制论的目标是对过程类比的研究。使用综合性原则,我们将展示控制论者如何轻松地为两个过程的本体论相同。这样的框架可能导致控制论被视为完全扎根的哲学理论。作为一种推论,我们指出,对网络的需求越来越多,因为由于其特定的过程本体论,它提供了一个理论框架,该框架在整个当代科学中都会在本体论上桥接二元论。
摘要 人类如何才能继续控制基于人工智能 (AI) 的系统,这些系统旨在自主执行任务?这样的系统越来越普遍,既带来了好处,也带来了不良情况,即无法将对其行为的道德责任适当地归因于任何特定的人或团体。有意义的人类控制的概念已被提出来解决责任差距,并通过建立能够适当归因于人类的条件来缓解责任差距;然而,对研究人员、设计师和工程师的明确要求尚未存在,这使得开发仍然处于有意义的人类控制下的基于人工智能的系统具有挑战性。在本文中,我们通过迭代的溯因思维过程确定了有意义的人类控制下的基于人工智能系统的四个可操作属性,从而解决了哲学理论与工程实践之间的差距,我们将利用两个应用场景来讨论这些属性:自动驾驶汽车和基于人工智能的招聘。首先,人类与人工智能算法交互的系统应该有一个明确定义的道德负载场景范围,系统应该在其中运行。第二,系统内的人类和人工智能代理应具有适当且相互兼容的表示。第三,人类承担的责任应与人类控制系统的能力和权限相称。第四,应该有明确的 l
本文即将由 Synthese 发表。最终版本可能包含微小更改,请引用已发布的版本。如何成为计算神经科学的现实主义者 Danielle J. Williams 华盛顿大学圣路易斯 danielle.williams@wustl.edu 摘要 最近,一种现实主义版本已被提出来解决计算神经科学中使用的简化策略(Chirimuuta,2023;2024)。根据这种观点,计算模型为我们提供了有关大脑的知识,但不应以任何意义从字面上理解,甚至拒绝大脑进行计算的想法(计算主义)。我承认需要考虑神经科学中的简化策略以及它们如何有助于我们对计算模型的解释;但是,我认为我们是否应该接受或拒绝关于大脑的计算主义是一个单独的问题,可以通过物理计算的哲学理论独立解决。这认真对待了大脑进行计算的想法,同时也对神经科学中的计算模型采取了类比立场。我将这种现实主义称为“类比计算现实主义”。类比计算现实主义是一种现实主义观点,它致力于计算主义,同时采用某些计算模型来挑选出真实的模式(Dennett,1991;Potochnik,2017),这些模式提供了一种可能性解释,同时不考虑模型实际上是在大脑中实现的。
摘要 人类如何才能继续控制基于人工智能 (AI) 的系统,这些系统旨在自主执行任务?这样的系统越来越普遍,既带来了好处,也带来了不良情况,即其行为的道德责任不能正确地归因于任何特定的人或团体。有意义的人类控制的概念已被提出来解决责任差距,并通过建立条件来缓解责任差距,使责任能够正确地归因于人类;然而,对研究人员、设计师和工程师的明确要求尚未存在,这使得开发仍然处于有意义的人类控制下的基于人工智能的系统具有挑战性。在本文中,我们通过迭代的溯因思维过程确定了有意义的人类控制下的基于人工智能系统的四个可操作属性,从而解决了哲学理论与工程实践之间的差距,我们将利用两个应用场景来讨论这些属性:自动驾驶汽车和基于人工智能的招聘。首先,人类和人工智能算法交互的系统应该有一个明确定义的道德负载场景领域,系统应该在其中运行。其次,系统内的人类和人工智能代理应该有适当且相互兼容的表示。第三,人类承担的责任应与人类控制系统的能力和权威相称。第四,人工智能代理的行为与意识到道德责任的人类行为之间应有明确的联系。我们认为,这四个特性将支持具有实践意识的专业人士采取具体步骤,设计和构建促进有意义的人类控制的人工智能系统。