制约行政机构,迫使法官在表面形式礼仪审查和破坏性、甚至常常令人麻痹的对理想机构应做什么的调查之间做出选择。相比之下,民主实验主义要求社会行为者在各自和相互交换的情况下,在决策过程中考虑宪法因素。行政机构在监督行为者表现的同时,通过审查每个人对其他相关建议的反应来协助行为者。然后,法院确定该机构是否履行了促进和推广这种信息汇集结果的义务。机构和法院都利用当事人意图的丰富记录,通过对实验本身进行持续的比较评估,来解释当事人的行为。在行政和相关环境中,民主实验主义的目标是从内部实现公共决策的民主化,从而减轻司法系统的负担,因为司法系统如今笨拙地从外部监督民主的日常运作。
摘要。试图使算法公平,机器学习文献主要集中在跨种族或性别群体之间的决策,结果或错误率平等。要说明,请考虑一个假设的政府乘车计划,该计划为即将到来的法院日期提供的低收入人士提供运输援助。遵循这些文献,可以将游乐设施分配给每美元估计效果最高的治疗效果的人,同时将支出限制为在种族群体之间相等。然而,这种方法忽略了这种约束的下游后果,因此会造成意外伤害。例如,如果一个人群群体居住在远离法院的情况下,则执行平等的支出必然意味着提供的总乘车总数较少,并且可能会因失踪法院而受到更多惩罚的人。在这里,我们提出了设计公平算法的替代框架,该算法预示了决策的后果。在我们的方法中,首先引起了利益相关者在可能的决策和由此产生的结果的方面的偏好,例如平衡支出平价与法院出庭率的偏好。然后,我们在决策政策的空间中进行了优化,以最大化引起的公用事业的方式进行权衡。为此,我们开发了一种算法,以从数据中从数据中有效地学习这些最佳策略的算法,以提供大量表达效用功能。尤其是,我们使用上下文的强盗算法来探索poli cies的空间,同时在每个步骤求解凸优化问题,以根据可用信息估算最佳策略。这种后果主义范式促进了公平决策的更霍利斯的方法。
超人类主义和个人身份 James J. Hughes 在《超人类主义读者》中,Max More 和 Natasha Vita-More 编辑。2013 年。Wiley:第 227-234 页。启蒙价值观建立在独立理性自我、公民、消费者和追求自身利益者的假设之上。即使是威权主义和社群主义的启蒙运动也假设了自主个体的存在,只是主张给予集体利益更大的重视。然而,自休谟以来,激进的启蒙经验主义者对离散、持久的自我的存在提出了质疑。今天,神经科学的还原论促使人们拒绝了本质主义的个人身份模型。当代超人类主义尚未应对自由个人主义的侵蚀对他们个人选择增强和长寿项目造成的根本后果。大多数超人类主义者仍然反映出本质主义的个人身份观念,即使他们接受了彻底的认知增强项目,这些项目将改变意识的每个组成元素。超人类主义者需要努力解决这样一个问题:如果个人身份是一种任意的、可改变的虚构,那么他们的项目和道德将会发生怎样的变化。
以数据为中心的技术正在改变独裁者与信息的关系。自国王,皇后,沙皇和皇帝时代以来,信息一直对压迫异议的专制项目至关重要。的确,他们的间谍和警察将定期提供有关秘密会议和反对运动的信息。在二十世纪的独裁政权中,例如共产主义东德的监视,其中一些是技术辅助的 - 具有普遍性的特征,并没有完全保护社会或私人生活的方面,没有完全保护眼睛(或耳朵)。尽管引入了技术工具,但是让人们受到监视仍然是一项深刻的人类努力。设备可能会记录对话,但是人类安全人员必须手动筛选并理解磁带上的单词。
* 西弗吉尼亚大学法学院法学讲师,西弗吉尼亚州摩根敦。本文由霍奇斯基金教职员工研究经费资助。作者感谢《科罗拉多技术法杂志》的编辑。** 卡内基梅隆大学,宾夕法尼亚州匹兹堡 *** 西弗吉尼亚大学法学院法学教授,西弗吉尼亚州摩根敦 1。参见,例如,Chris Stokel-Walker,《生成式人工智能即将为律师服务》,《WIRED》(2023 年 2 月 21 日上午 10:00),https://www.wired.com/story/chatgpt-generative-ai-is-com- ing-for-the-lawyers/ [https://perma.cc/6R7R-WE4T](讨论律师事务所如何在实践中使用大型语言模型等生成式人工智能工具);David Rotman,《ChatGPT 即将彻底改变经济》。我们需要决定它是什么样子,麻省理工学院。R EV。(2023 年 3 月 25 日),https://www.technolo- gyreview.com/2023/03/25/1070275/chatgpt-revolutionize-economy-decide-what-looks- like/ [https://perma.cc/6RBZ-QQAJ](引用“麻省理工学院劳工经济学家和技术对就业影响方面的领先专家”指出律师事务所正在使用生成式人工智能)。2.参见 Benjamin Weiser,ChatGPT 律师被命令考虑寻求宽恕,纽约时报(2023 年 6 月 22 日),https://nytimes.com/2023/06/22/nyregion/lawyers- chatgpt-schwartz-loduca.html [https://perma.cc/59UB-YECR](例如,两名纽约律师因使用 ChatGPT 起草一份包含大量“虚构”案件的简报而受到联邦法官的制裁)。
《论证:半年期哲学期刊》的最新一期涵盖了两个相互交叉的主题:人工智能 (AI) 和超人类主义。人工智能是计算机科学和认知科学的研究领域,但它们也借鉴了数学、心理学、神经生物学和神经科学的成就,后者专注于创建能够执行通常需要人类智能才能完成的任务的计算机系统。人工智能致力于创建能够学习、思考、探索、识别模式、做出决策、理解自然语言和以类似于人类的方式处理信息的程序和算法。另一方面,超人类主义是一场智力(哲学)和文化运动,它宣称需要克服人类的局限性,并假设努力改善人类的心理物理状况。为此,他建议使用包括人工智能在内的科学和技术,尤其是生物技术、神经技术和纳米技术。
例如,传统行政法对行政机构施加外部司法制约,迫使法官在表面形式礼仪的审查和破坏性的、甚至常常令人麻痹的、对理想机构可能做什么的调查之间做出选择。相比之下,民主实验主义要求社会行为者在各自和相互交换的情况下,在决策过程中考虑宪法因素。行政机构在监督行为者表现的同时,通过审查每个人对其他相关建议的反应来协助行为者。然后,法院确定该机构是否履行了促进和推广这种信息汇集结果的义务。机构和法院都使用当事人意图的丰富记录,这些记录是通过对实验本身的持续、比较评估中所包含的行为来解释的。在行政和相关环境中,民主实验主义的目的是从内部实现公共决策的民主化,从而减轻当今司法机构的负担。
(iii) 使相关人员能够遵守本规则和联邦反洗钱立法;(iv) 根据其运营和活动的性质、规模和复杂性进行适当调整;(c) 确保定期对相关人员的反洗钱系统和控制措施的充分性进行风险评估,以确保它们继续使相关人员能够充分识别、评估、监控和管理洗钱风险,并且全面且与其活动的性质、规模和复杂性相称。 指导 1. 根据规则 5.2.1(b)(iv),DFSA 希望系统和控制措施能够根据相关人员的风险状况、业务模式和活动进行调整。通用政策和程序不符合要求。 2. 在规则 5.2.1(c) 中,风险评估的规律性将取决于相关人员业务的性质、规模和复杂性,也取决于其业务何时发生重大变化。……
本章回顾了专注于使用神经网络的计算机认知模型。这些架构受到对大脑计算方式研究的启发,特别是以下观察结果:由相对简单的处理元素组成的大型密集连接网络可以相当轻松地通过少量连续步骤解决某些复杂任务。后续工作产生了具有独特风味的认知模型。处理的特点是跨连接成复杂网络的简单处理单元的激活模式。知识存储在单元间连接强度中。正是由于这个原因,这种理解认知的方法获得了联结主义的名称。自本书第一版以来,很明显该领域已进入人工神经网络研究的第三个时代。第一个时代始于 20 世纪 30 年代和 40 年代,是第一种正式计算理论起源的一部分;第二个时代始于 20 世纪 80 年代和 90 年代,伴随着认知的并行分布式处理模型;第三个时代始于 21 世纪中期,伴随着“深度”神经网络的进步。关于如何创建和训练更强大的人工神经网络的新见解引发了这两个时代的转变。
