摘要摘要对研究范式的合理理解对于发展一致和哲学上的研究设计至关重要,尤其是在人文和社会科学方面。本文提供了最常见的研究范式的概述:实证主义,实证主义,建构主义,社会建构主义,解释性,实用主义和批判现实主义。这些范式在本体论的方法(现实的本质),认识论(知识的本质)和人工学(价值观在研究中的作用)有所不同。本文还讨论了这些范式的方法论和伦理意义。反思性和道德责任,研究人员必须考虑自己的偏见和价值观如何影响他们的工作。通过探索这些范式及其哲学基础,本文旨在帮助研究人员确定最能与他们对世界的看法保持一致的范式,最终使他们能够相干地设计在理性上是合理的,道德上知情的和实际上相关的。本文通过提供清晰,实用的研究范式指南,从而更深入地了解跨学科研究实践的哲学基础,从而有助于学术话语。
在本文中,开发了一种熟练绩效的直观过程的理论方法。它整合了认知和非认知方面(尤其是认识论的感觉),并为建模学生的情况特定技能(例如决策,解决问题和批判性思维)提供了建模的基础。作为该框架的一部分,区分了两种形式的认知感:基于前景和确认的感觉。在直觉决策的背景下,解释了他们对熟练绩效过程的贡献。结果,直观过程可能会变得可伪造,并且它们的研究可以与人类的理性有关。在这方面,可以将意识,自信,救济或遗憾等认知感被视为能力方面的一部分,这些方面可以通过教学教学来解决,并在专业发展过程中培养。
摘要 这篇评论反思了 Leszczynski 和 Elwood 的故障认识论理论,主张从认识论的角度研究地理学中的(人工智能)问题,重点关注感知、遭遇和主观性。这种方法否认了以人工智能或其他“智能”形式推销的技术所具有的本体论地位,而是研究如何在与始终存在差异和不断区分的主体的偶然和情境遭遇中将特定技术视为智能。故障和相关的认识论方法将注意力重新转向对特定类型技术的欲望和期望的不均衡生产,并创造机会从根本上重新构想我们与它们的关系。
本文将其根源/路线定位在多个学科结构中,并试图通过括起三个知识结构——人工智能 (AI)、经济学和认识论——来推动对我们当代社会技术挑战的一个方面的批判性思考,而这三个知识结构通常不被一起考虑。通过这样做,它响应了来自人工智能和其他学科工作的日益增长的对进一步跨学科参与的必要性的呼吁。这里的论点结构如下。首先,我首先说明解释如何以及为什么是人工智能中的一个问题(“XAI 问题”),以及最近的研究正在采取哪些方向来借鉴社会科学来解决这个问题,并指出这些文献中明显缺乏对经济学的引用。其次,我确定并分析了一个长期困扰经济学学科的解释问题。我展示了只有少数经济学家曾试图解决这个问题,并提供了他们的观点。第三,我提供了经济学中解释的原始谱系,展示了解释含义的变化性质。当某事被“解释”时,人们对发生的事情的共识理解发生了系统性变化,反映了方法论上的妥协,这些妥协随着时间的推移而变得必要,以应对不同的认识论张力。最后,我确定了经济学和人工智能之间各种相关的历史和概念重叠。最后,我建议我们必须更加关注支撑人类社会技术知识的认识论。人工智能中的解释问题,就像经济学中的解释问题一样,可能不仅仅是,或者实际上不仅仅是一个令人满意的解释提供问题,而是与相互竞争的认识论和伦理选择问题交织在一起,并与我们选择社会技术安排和同意受其治理的方式有关。
摘要本章对算法的认识论感兴趣。当我打算处理该主题时,这是关于认知辩护的问题。当前的理由方法强调了算法的透明度,这需要阐明其内部机制,例如功能和变量,并证明了这些产生输出(或)如何产生输出。因此,通过透明度的理由方式取决于有关算法所显示的内容,从这个意义上讲,算法是内部的。相比之下,我主张我称计算可靠性(CR)的外部主义认识论。我以前曾在计算机模拟领域介绍并检查了CR([42,53,4]),但本章扩展了这种可靠的认识论,以涵盖各种科学纪律中使用的算法范围,并特别强调机器学习应用程序。在其核心上,CR假设算法的输出是合理的,如果它是由可靠的算法产生的。可靠的算法是使用可靠性指标指定,编码,使用和维护的算法。这些可靠性指标源于形式方法,算法指标,专家能力,研究文化以及其他科学努力。本章的主要目的是描述CR的基础,阐明其操作机制,并概述其作为算法外部主义认识论的潜力。
摘要 2022 年,人工智能 (AI) 渗透到人类社会,而理解其某些方面的工作方式却异常困难。有一项运动——可解释人工智能 (XAI)——旨在开发新方法来解释人工智能系统的行为。我们旨在强调 XAI 的一个重要哲学意义——它在消除模糊性方面发挥着作用。为了说明这一点,请考虑在被称为监视资本主义的领域中使用人工智能,这已使人类迅速获得了识别和分类大多数使用语言场合的能力。我们表明,这种信息的可知性与某种模糊性理论——认识论——对模糊性的说法是不相容的。我们认为,认识论者应对这一威胁的一种方式是声称这一过程带来了模糊性的终结。然而,我们提出了另一种解释,即认识论是错误的,但还有一种较弱的学说,我们称之为技术认识论,即认为模糊性是由于对语言用法的无知造成的,但这种无知是可以克服的。这个想法是,了解更多相关数据以及如何处理这些数据,使我们能够更自信、更准确地了解单词和句子的语义值。最后,我们认为,除非所涉及的人工智能能够用人类可以理解的术语来解释,否则人类可能不会相信未来的人工智能算法告诉我们关于模糊词语的明确界限。也就是说,如果人们要接受人工智能可以告诉他们词语含义的明确界限,那么它就必须是可理解人工智能。
1.Rajkomar A、Oren E、Chen K 等人。利用电子健康记录进行可扩展且准确的深度学习。npj 数字医学。2018;1(1):1 – 10。https://doi.org/10.1038/s41746-018-0029-1。2.Paydar S、Pourahmad S、Azad M 等人。利用人工神经网络建立甲状腺结节恶性风险预测模型。《中东癌症杂志》。2016;7(1):47-52。3.Amato F、López A、Peña-Méndez EM、Va ň hara P、Hampl A、Havel J.医学诊断中的人工神经网络。J Appl Biomed。2013; 11(2):47-58。 https://doi.org/10.2478/v10136-012-0031-x。4.莫赫塔尔 AM.未来医院:业务架构视图。马来医学科学杂志。2017;24(5):1-6。 https://doi.org/10.21315/mjms2017.24.5.1。5.Liu X、Faes L、Kale AU 等人。深度学习与医疗保健专业人员在医学影像检测疾病方面的表现比较:系统评价和荟萃分析。柳叶刀数字健康。2019;1(6):e271-e297。https://doi.org/10.1016/s2589-7500 (19)30123-2。6.Nagendran M、Chen Y、Lovejoy CA 等人。人工智能与临床医生:深度学习研究的设计、报告标准和主张的系统回顾。英国医学杂志。2020;368:m689。https://doi.org/10.1136/bmj.m689。7.Panch T、Pearson-Stuttard J、Greaves F、Atun R. 人工智能:公共健康的机遇和风险。柳叶刀数字健康。2019;1 (1):e13-e14。https://doi.org/10.1016/s2589-7500(19)30002-0。8.Landes J、Osimani B、Poellinger R. 药理学中的因果推理的认识论。欧洲哲学杂志。2018;8(1):3-49。 https://doi.org/10。1007/s13194-017-0169-1。9.Abdin AY、Auker-Howlett D、Landes J、Mulla G、Jacob J、Osimani B.审查机械证据评估者 E-synthesis 和 EBM +:阿莫西林和药物反应伴有嗜酸性粒细胞增多和全身症状 (DRESS) 的案例研究。当前药学设计。2019;25(16):1866-1880。https://doi.org/10.2174/1381612825666190628160603。10.De Pretis F,Osimani B.药物警戒计算方法的新见解:E-synthesis,一种用于因果评估的贝叶斯框架。国际环境研究公共卫生杂志。11.2019;16(12):1 – 19。https://doi.org/10.3390/ijerph16122221。De Pretis F、Landes J、Osimani B。E-synthesis:药物监测中因果关系评估的贝叶斯框架。Front Pharmacol 。2019;10:1-20。https://doi.org/10.3389/fphar.2019.01317。12。De Pretis F、Peden W、Landes J、Osimani B。药物警戒作为个性化证据。收录于:Beneduce C、Bertolaso M 编辑。个性化医疗正在形成。从生物学到医疗保健的哲学视角。瑞士 Cham:Springer;2021:19 即将出版。13.那不勒斯 RE。学习贝叶斯网络。Prentice Hall 人工智能系列。新泽西州 Upper Saddle River:Pearson Prentice Hall;2004 年。14.Hill AB。环境与疾病:关联还是因果关系?J R Soc Med。2015;108(1):32-37。本文首次发表于 JRSM 第 58 卷第 5 期,1965 年 5 月。https://doi.org/10.1177/ 0141076814562718。15.Mercuri M、Baigrie B、Upshur RE。从证据到建议:GRADE 能帮我们实现目标吗?J Eval Clin Pract 。2018;24(5):1232- 1239。https://doi.org/10.1111/jep.12857。
本文探讨了使用计算机模拟实现两个不同目标时所面临的认识论挑战:通过假设检验进行解释和预测。本文认为,由于不同的实际和概念约束,每个目标都需要不同的策略来证明从模拟结果中得出的推论。本文确定了研究人员为提高对每个目标的推论的信心而采用的独特和共同策略。对于通过假设检验进行解释,研究人员需要解决不确定性、可解释性和归因挑战。在预测中,重点是模型在多个领域推广的能力。研究人员为提高推论信心而采用的共同策略是理论假设的实证证实和计算操作化的充分性,本文认为这些对于通过假设检验进行解释是必要的,但对于预测则不是。鉴于计算机模拟在科学研究中的多种应用,本文强调需要对计算机模拟的认识论采取细致入微的方法。理解这些差异对于科学研究人员和科学哲学家来说都至关重要,因为它有助于制定适当的方法和标准来评估计算机模拟的可信度。
本文沿袭维果茨基的论述,运用文化历史活动理论(CHAT)和辩证逻辑,试图探讨心理学与人工智能(AI)之间的相互作用,以应对人工智能研究中遇到的认识论和方法论挑战。本文认为,人工智能正面临着从基于二元本体论的心理学继承而来的认识论和方法论危机。这场危机的根源在于理性主义和客观主义的二元性,或者说,心身断裂控制了科学思想的产生和方法的扩散。此外,本文通过强调人工智能的社会历史条件,探讨了危机从心理学转向人工智能的历史特征。此外,我们通过指出经验主义是该领域的主导趋势,研究了人工智能研究中遇到的主要挑战的认识论和方法论根源。经验主义引发了方法论和实践挑战,包括与意义的出现、抽象、概括、符号的出现、概念形成、现实的功能反映以及高级心理功能的出现相关的挑战。此外,通过讨论形式化辩证逻辑的尝试,本文基于矛盾形成,通过使用初步算法模型提出了一种定性的认识论、方法论和形式替代方案,该模型将意义的形成视为定性反映现实和其他心理功能出现的一项基本能力。
摘要 - 强化学习为机器人控制提供了一个吸引人的框架,因为它仅通过现实世界的互动才能纯粹学习表达政策。但是,这需要解决现实世界的约束并避免在训练过程中造成灾难性失败,这可能会严重阻碍学习进步和最终政策的表现。在许多机器人设置中,这相当于避免某些“不安全”状态。高速越野驾驶任务代表了对此问题的特别挑战性的实例化:高回报策略应尽可能积极地驱动驱动力,通常需要接近“安全”状态集的边缘,因此在该方法上承担特定的负担,以避免频繁失败。既学习高表现的政策,又避免过度失败,我们提出了一个增强学习框架,将对风险敏感的控制与自适应动作空间课程相结合。此外,我们表明我们的风险敏感目标会自动避免配备认知不确定性的估计量。我们在小规模的拉力赛上实施了算法,并表明它能够为现实世界中的越野驾驶任务学习高速政策。我们表明,我们的方法大大减少了培训过程中的安全违规数量,实际上导致在驾驶和非驾驶模拟环境中都具有类似挑战的驾驶和非驾驶模拟环境中的绩效策略。