在本文中,我们研究了新哥本哈根(或“认识论实用主义”)对量子力学的主要解释之间的相似之处和差异,这些解释在这里被定义为拒绝量子态的本体论性质并同时避免隐藏变量,同时保持量子形式不变。我们认为,存在一个具有共同核心的单一通用解释框架,所有这些解释都致力于这个框架,因此它们可以被视为它的不同实例,其中一些差异主要是重点和程度的问题。然而,我们也发现了更实质性的剩余差异,并对它们进行了初步分析。我们还认为,这些剩余的差异无法在量子力学本身的形式主义中得到解决,并确定了可用于打破这种解释不确定性的更普遍的哲学考虑。
认识论又称为科学哲学。它是哲学的一部分,我们研究知识、知识的基础、性质、范围和局限性。方法论是认识论的一个分支,我们研究特定于科学或学科的研究和分析方法。我们经常看到这个术语与方法(用于建立或证明真理,根据确定的原则和按特定顺序应用的步骤引导我们的思想)混淆使用。有时使用“logy”后缀来为我们不应该使用的术语提供科学解释……卡尔波普尔是 20 世纪的主要科学哲学家,他的工作主要集中在科学发现的逻辑上 [1]。他将可重复性提升为研究科学性的主要标准。十年来,我们在许多领域都观察到了可重复性危机,计算机科学就是其中之一。ACM 术语最近在 2020 年进行了更改,以反映计算机科学家的这种认识以及朝着产生可靠结果的正确方向的发展。经典计算机是确定性机器,即使我们运行随机模拟也是如此。当正确使用伪随机数时,我们可以用适当的方法精确地获得按位相同的结果,从而调试正在构建的科学软件,这是至关重要的 [2]。量子机器本质上是随机的,每次运行都可能产生不同的结果,但可重复性(而非可重复性)仍然是检查量子机器质量的主要标准:我们是否获得相同的统计数据和相同的科学结论?在简要回顾量子计算的起源之后,我们将在真实量子处理器上模拟和测试 Grover 算法时回顾正在进行的工作。
在本文中,开发了一种熟练绩效的直观过程的理论方法。它整合了认知和非认知方面(尤其是认识论的感觉),并为建模学生的情况特定技能(例如决策,解决问题和批判性思维)提供了建模的基础。作为该框架的一部分,区分了两种形式的认知感:基于前景和确认的感觉。在直觉决策的背景下,解释了他们对熟练绩效过程的贡献。结果,直观过程可能会变得可伪造,并且它们的研究可以与人类的理性有关。在这方面,可以将意识,自信,救济或遗憾等认知感被视为能力方面的一部分,这些方面可以通过教学教学来解决,并在专业发展过程中培养。
摘要摘要对研究范式的合理理解对于发展一致和哲学上的研究设计至关重要,尤其是在人文和社会科学方面。本文提供了最常见的研究范式的概述:实证主义,实证主义,建构主义,社会建构主义,解释性,实用主义和批判现实主义。这些范式在本体论的方法(现实的本质),认识论(知识的本质)和人工学(价值观在研究中的作用)有所不同。本文还讨论了这些范式的方法论和伦理意义。反思性和道德责任,研究人员必须考虑自己的偏见和价值观如何影响他们的工作。通过探索这些范式及其哲学基础,本文旨在帮助研究人员确定最能与他们对世界的看法保持一致的范式,最终使他们能够相干地设计在理性上是合理的,道德上知情的和实际上相关的。本文通过提供清晰,实用的研究范式指南,从而更深入地了解跨学科研究实践的哲学基础,从而有助于学术话语。
这一学说的本质是将量子概率解释为主观的。也就是说,QBist 概率并不反映相对频率、客观机会或其他物理概率概念;它们更倾向于量化个人主观的信念程度。QBist 概率的主观性可以通过赋予概率 1 语句的含义来说明。如果 QBist 代理以概率 1 预测实验结果,这并不意味着该未来结果的物理状态;特别是,它并不意味着结果必然会实现,也不意味着所讨论的结果已经存在于外部世界中,等待被揭示。唯一的暗示是代理完全相信会找到所讨论的结果。这是关于她或他的期望的事实,而不是关于物理世界的事实。(Dieks 2022,3f。)
摘要本章对算法的认识论感兴趣。当我打算处理该主题时,这是关于认知辩护的问题。当前的理由方法强调了算法的透明度,这需要阐明其内部机制,例如功能和变量,并证明了这些产生输出(或)如何产生输出。因此,通过透明度的理由方式取决于有关算法所显示的内容,从这个意义上讲,算法是内部的。相比之下,我主张我称计算可靠性(CR)的外部主义认识论。我以前曾在计算机模拟领域介绍并检查了CR([42,53,4]),但本章扩展了这种可靠的认识论,以涵盖各种科学纪律中使用的算法范围,并特别强调机器学习应用程序。在其核心上,CR假设算法的输出是合理的,如果它是由可靠的算法产生的。可靠的算法是使用可靠性指标指定,编码,使用和维护的算法。这些可靠性指标源于形式方法,算法指标,专家能力,研究文化以及其他科学努力。本章的主要目的是描述CR的基础,阐明其操作机制,并概述其作为算法外部主义认识论的潜力。
项目总成本总额为Unive€1.927,572€1.927,572摘要:该项目提出了另一种人工智能认识论(AI)。它认为,AI的风险与人类理性(拟人化)相似,而是其认知差异。不是在摘要中猜测机器是否可以“思考”,而是解决了一个历史问题:当前AI,机器学习范围的逻辑和技术形式是什么,其起源是什么?该项目可以追溯到机器学习的起源回到算法建模的发明(更确切地说,是算法统计建模),该建模在1950年代中期的人工神经网络研究中形成了,并记录了这种开创性人工制品的连贯历史和同学的一致性历史和同学。该项目追求三个目标,将其发现转化为建设性范式:1)AI的新历史强调算法模型在统计,计算机科学,人工神经网络和机器学习的演变中的关键作用; 2)AI的新认识论与学习心理学和科学技术的历史认识论相关; 3)研究大型多用途模型的影响(例如Bert,GPT-3,法典和其他最新基础模型)关于工作自动化,数据治理和数字文化。通过巩固AI的模型理论,该研究将使AI的接受和数字人文,科学计算,机器人技术和AI伦理等领域受益。最终,它将有助于将AI置于当前技术界面的全球视野和知识系统的悠久历史上。
摘要 - 强化学习为机器人控制提供了一个吸引人的框架,因为它仅通过现实世界的互动才能纯粹学习表达政策。但是,这需要解决现实世界的约束并避免在训练过程中造成灾难性失败,这可能会严重阻碍学习进步和最终政策的表现。在许多机器人设置中,这相当于避免某些“不安全”状态。高速越野驾驶任务代表了对此问题的特别挑战性的实例化:高回报策略应尽可能积极地驱动驱动力,通常需要接近“安全”状态集的边缘,因此在该方法上承担特定的负担,以避免频繁失败。既学习高表现的政策,又避免过度失败,我们提出了一个增强学习框架,将对风险敏感的控制与自适应动作空间课程相结合。此外,我们表明我们的风险敏感目标会自动避免配备认知不确定性的估计量。我们在小规模的拉力赛上实施了算法,并表明它能够为现实世界中的越野驾驶任务学习高速政策。我们表明,我们的方法大大减少了培训过程中的安全违规数量,实际上导致在驾驶和非驾驶模拟环境中都具有类似挑战的驾驶和非驾驶模拟环境中的绩效策略。