摘要。本文通过几个著名伊斯兰哲学流派的认识论棱镜,分析了机器学习的不同过程:监督、无监督和半监督。我讨论了每个学派概念化本体论绝对(不朽、死亡、来世)的方式,以及这如何塑造了各自的认识论。我通过每个哲学传统的认识论构造棱镜,分析了不同的机器学习过程。最后,我认为,鉴于许多穆斯林国家是人工智能发展及其在日常生活中的应用的领导者,更多来自伊斯兰哲学传统的学者应该参与有关人工智能发展及其影响的辩论。
我们越来越受制于依赖大数据和人工智能的技术系统的力量。这些系统正在重塑福利国家和刑事司法管理。它们被用来监管逃税行为、追捕虐待儿童者,并模拟疫情蔓延。它们还被用来通过面部识别技术将庞大的监控网络武器化。但算法的力量远远超出了国家:我们花越来越多的时间在数字平台上工作、社交和消费。我们的体验受算法的支配,算法不断监控和塑造我们的行为和注意力,自动选择我们看什么和不看什么。这些在线体验对线下产生了影响,其中包括对全球民主进程的前所未有的挑战。其他学科中关于大数据和人工智能的法律和政治影响的文献蓬勃发展,哲学中关于人工智能伦理问题的文献也在迅速增长。然而,迄今为止,从政治哲学的角度来看,研究工作相对较少。本期特刊的诞生源于这样一种认识:政治哲学在关于人工智能如何重塑我们共同的政治、社会和经济生活的讨论中发挥着至关重要的作用。人工智能的广泛部署再次引起了人们对政治哲学中长期存在的基本问题的关注,并产生了真正具有政治意义的新哲学问题。现有的哲学问题以前所未有的规模重新浮出水面,例如某些基于规则的决策程序(无论该程序是由官僚和行政官员还是算法系统实施)是否公正合法,或者基于统计概括做出判断是否以及何时在道德上是允许的。其他例子包括道德和法律哲学中关于歧视为何错误的长期争论;政治哲学中关于政治平等的经典争论(鉴于不平等的政治影响力);政治哲学和经济哲学中关于工作和异化的争论;以及关于理想化和抽象化的更广泛争论,这些争论贯穿政治和道德哲学以及科学哲学。新的哲学问题也随之出现:例如,我们不能简单地借鉴最初为小规模窃听场景或全景监狱的物理环境而设计的隐私理论,并将它们拖放到一个庞大、分散的相互监视的世界——在这个世界里,人们的数字足迹可以推断出最私密的秘密,从而形成“黑暗模式”,促使消费者和选民做出特定的选择。我们不能总是援引现有的合法性和政治义务概念,将政治权威牢牢地定位在理想民族国家所拥有的权力垄断中,这些国家由民主授权的公职人员统治,而忽略技术变革已经创造了由不受监管和未经民主授权的公司控制的重大权力和财富寡头垄断的事实。我们无法充分阐述政治权力的理论,
本书收录了《生命哲学杂志》第 13 卷第 1 期,2023 年,第 1-146 页特刊“人工智能、机器人和哲学”中发表的所有论文。作者讨论了科幻小说和太空伦理、人工智能哲学、自主代理的伦理和有道德的机器人等各种主题。通过他们的讨论,读者能够深入思考现代技术的本质和人类的未来。所有论文均于 2020 年春季受邀并完成,但由于 Covid-19 大流行和其他问题,出版被推迟到今年。我为延迟向作者和潜在读者道歉。我希望读者会喜欢这些关于数字技术及其与哲学的关系的论点。 森冈昌弘 早稻田大学教授 生命哲学杂志主编 2023 年 1 月 15 日。 *森冈昌弘(编辑)。人工智能、机器人和哲学。《生命哲学杂志》;(2023 年 1 月):i。
如果说物理哲学有一个核心问题,那就是量子测量问题:如何解释、理解甚至如何修复量子力学的问题。物理学中的其他理论挑战了我们的直觉和日常假设,但只有量子理论迫使我们认真对待这样一个观点:除了我们的观察之外,根本没有客观世界——或者,也许有很多。物理学中的其他理论让我们对如何理解它们的某些方面感到困惑,但只有量子理论引发了如此严重的悖论,以至于领先的物理学家和领先的物理哲学家认真考虑将其推翻并重新构建。量子理论既是 21 世纪物理学的概念核心,也是数学核心,也是我们试图理解 21 世纪物理学给我们的世界观的巨大空白。因此,毫不奇怪,量子力学的哲学主要由量子测量问题主导,在较小程度上由相关的量子非局域性问题主导,在本文中,我将对这两个问题进行介绍。在第 1 部分中,我回顾了量子力学的形式主义和量子测量问题。在第 2-4 部分中,我讨论了测量问题的三种主要解决方案:将形式主义视为代表系统的客观状态;将其视为仅代表其他事物的概率;修改它或完全替换它。在第 5 部分中,我回顾了贝尔不等式和量子力学中的非局域性问题,并将其与第 2-4 部分中讨论的解释联系起来。我在第 6 节中做了一些简短的总结性评论。术语说明:我交替使用“量子理论”和“量子力学”,以指代量子物理学的总体框架(包含简单到量子比特或谐振子,复杂到粒子物理学的标准模型的量子理论)。我不采用较旧的
PHIL 3330:心智与大脑* MW 9:30-10:45 STEVE JACOBSON TR 2:15-3:30 ED COX 本课程将解答有关心智及其与大脑的关系的难题。我们怎么知道其他人有意识?我们怎么知道非人类动物有意识?黑猩猩是人吗?植物会思考吗?计算机有可能思考吗?有可能用大脑活动来解释意识吗?神经科学会破坏自由意志的可能性吗?随着时间的推移成为同一个人是什么感觉?PHIL 3730:商业伦理 MW 2:00-3:15(在线)JAKE SWEET 加强学生分离商业理论和实践的道德方面的能力;提供概念工具来评估这些实践与国内和国际商业中的当代问题和长期存在的问题;让学生了解主要的理论道德观点和当前的管理理论,为学生在自己的工作生活中遇到这些问题或类似问题时提供基础。因此,这是一门应用伦理学课程,旨在提高学生的辨别能力和决策能力。
概述[从序言中摘录]对于许多哲学家来说,科学的核心目的是产生可靠的知识。但具有讽刺意味的是,科学的历史散布着错误。对于许多人来说,也许这些只是令人尴尬的失败,可以轻松地承认并投入阴影。相比之下,在本书中,我庆祝了这些错误。它们是科学过程和进步的组成部分。新知识的成本是错误的风险。传统上,哲学家专注于科学的独特方法和纪律处分,以建立可靠的知识。错误似乎是一个烦人的 - 在真正的知识方面的分心。在这里,我详细介绍了科学家的反应和确定错误。基于历史分析,我还建议从更务实的角度(展望未来),科学家如何有效地管理不可避免的错误。尽管许多哲学家(以及历史学家和社会学家以及科学家本身)对错误进行了不同的评论,但我们需要一种全面而系统的方法来组织我们的理解和指导科学家实践:科学错误的哲学。因此,本书对科学错误进行了深思熟虑的思考。的确,一项协调的研究得出了一些意外的结论。例如,“负”知识具有“积极”的作用。也就是说,我们应该对比true-or-False(已知)与不确定性(未知)进行对比。错误导致在多个级别上改善方法。因此,证明标准升级。理解特定的错误有助于加深知识的准确性和准确性,即使某些较早的概念被放弃为“错误”。因此,我们可以概念化知识,而不是“真实”与“错误”,而是拥抱两种形式的知识。知识的质量有所提高。展望未来,我们可以通过对错误的更系统的关注来改善科学实践。我们可以通过故意探索可能未解决的错误来源来培养一种加深知识的习惯。
人工智能:«实验哲学»还是现实的要求?Oleh Romanchuk 1,Viktoriya Romanchuk 2 * 1伊万·弗兰科国立洛杉矶国立大学助理教授,利维夫,乌克兰2博士学位学生,伊万·弗兰科国立利维夫大学,乌克兰LVIV,乌克兰 *通信作者电子邮件id:vsesvit.journal@gmail@gmail.com export the export of power of power of power of power of power of power of pore exist of pore exist of pore exist of World of World of World of World。讨论“新社会秩序”的形成,计算机文明的哲学,影响人类生活的最新信息和通信技术的方法,全球化世界总计算机化的心理和社会经济的后果,最新的方式和含义是解决出现的许多问题。人类面临的关键挑战已经超过了智人解决这些问题的智力能力。迫切需要创建高性能的通用计算机,该计算机可以在人类智能的层面上推理和执行操作,甚至超过它,包括批判性思维和创造力。这是关于创建所谓的“人工智能”(AI)。然而,这一发明将来可能会成为对人类文明危险的根源,因为如果不作为社会存在,人工智能将在人类伦理,道德,心理学之外发挥作用。担心世界对人工智能的迷恋的原因是非常真实的。没有人可以预测超级智能融入社会的后果。文章分析了创建AI和可能出现的社会风险的问题。(LEM,2014年)。该研究的目的是由于需要对“人工智能”概念的本质进行更深入的了解,以及在大众传播和社会关系领域可以解决的那些任务的识别。关键字:信息,人工智能,人类,交流,信息社会,互联网资源,计算机,通信技术。简介计算机越来越多地技术密集型。如今,媒体上有关人工智能的科学和流行科学文章不再令人惊讶,描述了对AI对媒体,政治和经济学影响的研究,分析了人工智能和传统武器的共生可能后果,以及更多。许多原始作品致力于此问题:( Wiener,1948年),(Turing,1950),(Andrew,1985),(Luger,2008),(Russel&Norvig,2006)等。在1948年,诺伯特·维纳(Norbert Wiener)将注意力集中在材料系统的属性中,以复制,存储和使用另一个系统的结构,同时确保系统适应环境(Wiener,1948)。在1950年,艾伦·图灵(Alan M. Turing)发表了上个世纪表达的最原始,最深刻的思想之一 - «计算机和智能»(图灵,1950年)。作者描述了程序(«模仿游戏»),通过该过程可以确定机器在合理意义上与人相等的时刻。此“图灵测试”成为“机器智能”的标准理论测试。测试任务假定对话者的情报水平决定了他进行对话的能力。二十年后,著名的波兰科幻作家,哲学家和未来学家Stanislaw Lem在他的文章“ Golem xiv”中指出,两个思想共存的问题 - 人类和“不人道”,生物学和人工智能,生物学和人工智能是未来的主要问题之一(Lem,1973)。在基本的哲学工作中«summa Technologiae»Stanislav Lem预测了虚拟现实的创造,人工智能,发展了人类自动进化的思想等。作者认为由于人工智学与人之间的关系,可能会出现的三种替代方法:AI永远不会超越人类的思想;如果发生这种情况,该人将能够保持对AI的控制;一个人是
要使可持续发展可持续,就需要在年轻人中培养可持续性。在泰国,自给自足的心态是实现这一目标的核心价值观。这涉及到可持续发展目标 4,即优质教育。然而,可以说,教育和学习是实现可持续发展的关键,涵盖所有可持续发展目标和具体目标。泰国以自给自足为基础的学校运动符合可持续发展目标,走在可持续发展的道路上。这一运动也符合联合国教科文组织全球可持续发展教育行动计划。通过他们的经验、奋斗和成功,泰国可以与其他国家分享最佳实践,以推进可持续发展教育伙伴关系。
1.6.1住所为学生提供了沉浸在大学智力环境中的机会。还包括在此期间,学生的研究需要校外领域或非Polyu实验室工作。1.6.2尽管有学习方式,但MPHIL学位的居住要求是两个常规学期。如果在输入计划之前获得了相关的研究硕士学位,那么在博士学位上是三个常规学期,但如果不是,则有四个常规学期。1.6.3所有研究生研究生必须在提交论文之前满足居住要求。1.6.4除了居住要求外,全日制研究研究生还必须全职在校园内,因此在此类地理上,以便能够完全参与与该计划相关的大学活动。1.6.5如果学生需要在香港以外进行研究,则必须由首席主管提出适当的监督安排,并由部门研究委员会(DRC)批准在香港境外度过的研究期。