本综述对神经表征论进行了更新,神经表征论是一种理论框架,它将意识体验定义为多模态、情境调查,并从大脑系统构建源自我们环境和身体的感觉的最佳猜测表征来解释其神经基础(Pennartz,2015)。它假定意识体验具有五个基本特征:(i)多模态丰富性,(ii)情境性和沉浸性,(iii)统一性和整合性,(iv)动态性和稳定性,以及(v)意向性。此外,意识还被认为具有生物学功能,其框架是反射和习惯(不需要意识)与目标导向、计划行为(需要多模态、情境调查)之间的对比。因此,意识体验被理解为一种感官丰富、空间包罗万象的身体和环境表征,而我们仍然有直接体验外部现实的印象。预测处理模型有助于理解意识背后的神经机制,这些模型以无监督的方式进行训练,不一定需要明显的动作,并且已经扩展到深度神经网络。然而,即使有了预测处理,问题仍然是为什么这种类型的神经网络活动会产生现象体验。在这里,我建议用多层次表征的概念来解决这个难题,这些概念会突然产生与现象体验相对应的多模态、空间广泛的超级推理。最后,将神经表征主义与其他意识神经理论进行了比较,并讨论了它对定义动物、人工智能设备和患有意识障碍的不能移动或无反应的患者的意识指标的影响。
但是,英语作为法学硕士的通用语言占据主导地位,而对开发非欧洲语言的类似模式关注甚少,这可能会加剧全球北方和南方在学术严谨性和知识标准方面本已很大的差距。中东和北非、非洲和南非地区的教育工作者面临着人工智能扭曲这一差距的前景,以至于它永远无法弥合。大卫·乔纳奇是一位拥有 50 年经验的国际教育家,目前在近东和南亚教育领域担任政府顾问,他认为,随着教育人工智能变得更加熟练,人们将更容易对其结果感到满意,而不太关心课堂学习和学术的质量。此外,在将许多学术责任交给人工智能时,人们会误将智力当成智慧。
本文通过后人类主义哲学考察了人工智能 (AI) 的本体论和认识论含义,将德勒兹、福柯和哈拉维的著作与当代计算方法相结合。它引入了负面增强、揭示实践和沉淀等概念,同时扩展了肯定制图、他性伦理和内在层面等思想,以批判关于身份、认知和能动性的人类中心主义假设。通过将人工智能系统重新定义为通过交互和共同创造网络出现的动态组合,本文挑战了人类与机器、主体与客体等传统二分法。该分析连接了分析哲学和大陆哲学传统,将归因分析和因果推理等形式工具与大陆思想的解释和过程方法结合起来。这种综合加深了对人工智能认识论和伦理维度的理解,拓展了哲学探究,同时批判了人工智能设计中的人类中心主义。本文探究了人工智能的空间基础,对比了欧几里得和非欧几里得框架,以研究优化过程和对抗性生成模型如何塑造计算认识论。通过批判对欧几里得空间假设的依赖,本文将替代几何定位为建模复杂递归关系的工具。此外,本文还探讨了人工智能的政治层面,强调了人工智能与生态、技术和社会政治体系之间的纠葛,这些体系导致了不平等。通过肯定政治和交叉方法,本文倡导优先考虑边缘化观点的包容性框架。本文还探讨了计算感质的概念,强调了人工智能系统中如何出现主观动态及其对伦理、透明度和机器感知的影响。最后,本文呼吁在人工智能伦理和安全方面建立后人类主义框架,强调互联互通、多元化和机器智能的变革能力。这种方法推进了认识论多元化,重新构想了数字时代的智能边界,通过动态系统的共同创造促进了新的本体论可能性。
制约行政机构,迫使法官在表面形式礼仪审查和破坏性、甚至常常令人麻痹的对理想机构应做什么的调查之间做出选择。相比之下,民主实验主义要求社会行为者在各自和相互交换的情况下,在决策过程中考虑宪法因素。行政机构在监督行为者表现的同时,通过审查每个人对其他相关建议的反应来协助行为者。然后,法院确定该机构是否履行了促进和推广这种信息汇集结果的义务。机构和法院都利用当事人意图的丰富记录,通过对实验本身进行持续的比较评估,来解释当事人的行为。在行政和相关环境中,民主实验主义的目标是从内部实现公共决策的民主化,从而减轻司法系统的负担,因为司法系统如今笨拙地从外部监督民主的日常运作。
摘要。试图使算法公平,机器学习文献主要集中在跨种族或性别群体之间的决策,结果或错误率平等。要说明,请考虑一个假设的政府乘车计划,该计划为即将到来的法院日期提供的低收入人士提供运输援助。遵循这些文献,可以将游乐设施分配给每美元估计效果最高的治疗效果的人,同时将支出限制为在种族群体之间相等。然而,这种方法忽略了这种约束的下游后果,因此会造成意外伤害。例如,如果一个人群群体居住在远离法院的情况下,则执行平等的支出必然意味着提供的总乘车总数较少,并且可能会因失踪法院而受到更多惩罚的人。在这里,我们提出了设计公平算法的替代框架,该算法预示了决策的后果。在我们的方法中,首先引起了利益相关者在可能的决策和由此产生的结果的方面的偏好,例如平衡支出平价与法院出庭率的偏好。然后,我们在决策政策的空间中进行了优化,以最大化引起的公用事业的方式进行权衡。为此,我们开发了一种算法,以从数据中从数据中有效地学习这些最佳策略的算法,以提供大量表达效用功能。尤其是,我们使用上下文的强盗算法来探索poli cies的空间,同时在每个步骤求解凸优化问题,以根据可用信息估算最佳策略。这种后果主义范式促进了公平决策的更霍利斯的方法。
超人类主义和个人身份 James J. Hughes 在《超人类主义读者》中,Max More 和 Natasha Vita-More 编辑。2013 年。Wiley:第 227-234 页。启蒙价值观建立在独立理性自我、公民、消费者和追求自身利益者的假设之上。即使是威权主义和社群主义的启蒙运动也假设了自主个体的存在,只是主张给予集体利益更大的重视。然而,自休谟以来,激进的启蒙经验主义者对离散、持久的自我的存在提出了质疑。今天,神经科学的还原论促使人们拒绝了本质主义的个人身份模型。当代超人类主义尚未应对自由个人主义的侵蚀对他们个人选择增强和长寿项目造成的根本后果。大多数超人类主义者仍然反映出本质主义的个人身份观念,即使他们接受了彻底的认知增强项目,这些项目将改变意识的每个组成元素。超人类主义者需要努力解决这样一个问题:如果个人身份是一种任意的、可改变的虚构,那么他们的项目和道德将会发生怎样的变化。
以数据为中心的技术正在改变独裁者与信息的关系。自国王,皇后,沙皇和皇帝时代以来,信息一直对压迫异议的专制项目至关重要。的确,他们的间谍和警察将定期提供有关秘密会议和反对运动的信息。在二十世纪的独裁政权中,例如共产主义东德的监视,其中一些是技术辅助的 - 具有普遍性的特征,并没有完全保护社会或私人生活的方面,没有完全保护眼睛(或耳朵)。尽管引入了技术工具,但是让人们受到监视仍然是一项深刻的人类努力。设备可能会记录对话,但是人类安全人员必须手动筛选并理解磁带上的单词。