然而,这些经济学家也承认在评估经济增长和发展时考虑更广泛的因素的重要性。他们认为,旨在促进经济增长的政策也应该考虑社会和环境因素,以确保增长可持续和包容。总之,经济增长和发展是经济学领域两个相互关联但又截然不同的概念。摘要经济增长是指没有伴随人类福利或其他方面发展显著改善的增长。虽然经济增长对于改善人类福利和发展是必要的,但在评估经济增长和发展时考虑更广泛的因素以确保增长可持续和包容是很重要的。政府在促进经济增长和发展中的作用是经济学中一个广泛争论的话题。有些人认为政府干预对于刺激增长和发展是必要的,但也有人认为政府干预可能适得其反,会阻碍经济进步。在本文中,我们将探讨政府在促进经济增长和发展中的作用[4]。
4第I条,第11条第11条弗吉尼亚宪法在原告向本法院的论点中进行了详细讨论。但是,在向本法院的简报中,原告没有明确的论点,该论点是第I,§1或§17的第1条第11条第11条第11条。例如,原告并未认为第I条,第1或§17条是自我执行的,因此放弃了英联邦的主权免疫。因此,鉴于原告未能向本法院提出争论,第1条或第17条提出了任何理由来撤销法院的判决,我们将审判法院局限于审判法院是否对这些原告实际上对本法院提出的论点犯了错误,例如根据jus Publicum Publicum Doctine和jus Publicum Doctine和diver I,第11条第11条。参见Cowardv。WellmontHealth Sys。,295 Va。351,367(2018)(认为上诉人承担充分的负担,以充分说明审判法院犯了错误(引用Bartleyv。Commonwealth,67Va。App。App。740,746(2017))。
摘要 根据人力资源研究所最近的一项调查,随着人工智能(AI)在工作场所的存在越来越普遍,人力资源专业人士担心招聘算法的使用会导致招聘过程的“非人性化”。本文的主要目标有三个:(i)引起人们对这个被忽视的问题的关注,(ii)阐明这种对非人性的担忧究竟意味着什么,以及(iii)概述为什么非人性化的招聘过程在道德上是可疑的。在区分了“非人性化”一词在此背景下的使用(即消除人类存在)与其在非人性化研究跨学科领域中的更常见含义(即将其他人视为非人类)之后,我们认为,使用招聘算法可能会对雇员与雇主的关系产生负面影响。我们认为,有充分的独立理由接受实质性的雇员与雇主关系以及申请人与雇主关系,这两者都符合利益相关者的公司义务理论。我们进一步认为,由于人类招聘人员的价值观与招聘算法中嵌入的价值观之间的差异,非人性化的招聘流程可能会对这些关系产生负面影响。借鉴 Nguyen(收录于:Lackey,《应用认识论》,牛津大学出版社,2021 年)对 Twitter 如何“游戏化沟通”的批评,我们认为用算法取代人类招聘人员会将人为价值观引入招聘流程。最后,我们简要考虑了一些可能减轻招聘算法带来的问题的方法,以及可能需要做出一些艰难的权衡。
我们认为,自动回归LLM本身不能进行计划或自我验证(毕竟是一种推理形式),并阐明了文献中误解的原因。我们还认为,LLMS应被视为通用近似知识源,这些知识源具有更有意义的角色,可以在模拟前端/后端格式翻译器之外的计划/推理任务中发挥作用。我们提出了LLM-Modulo框架的愿景,该框架将LLM的优势与外部模型的验证器结合在更紧密的双向交互制度中。我们将展示如何借助LLMS来启动驱动外部验证者本身的模型。我们还将争辩说,该LLM-Modulo框架不仅仅是简单地说明LLM和符号组件,而是提供了一种更好的神经符号方法,可以提供LLMS和符号组件之间的更严格的整合,从而扩展了基于模型的计划/推广方案的范围,从而扩展了对更灵活的知识,问题,问题,问题,问题,问题,问题和偏好的规定。
伦理更多的是发明而不是发现,这种观点并不新鲜。它与某些反现实主义观点有关,而这些观点本身就没有伦理事实。但我的论点并不基于这些观点——我很乐意承认现实主义的图景,其中有伦理事实有待发现。不过,我认为这些事实并不能解决人工智能伦理问题,因为有太多这样的事实,我们该遵循哪些事实取决于我们自己。这一论点部分基于对人工智能的特定考虑,部分基于一般的元伦理考虑。关于第一个问题,我认为人工智能与我们之前遇到的任何事物都不同,我们必须问自己在处理它们时应该使用哪些伦理概念,是我们已经接受的概念,还是更适合我们美丽新世界的新概念。关于第二个问题,我认为这个问题没有正确或错误的答案。所有伦理概念都是一样的;我们只需选择遵循哪一个即可。1. 人工智能
清楚地表达了以遗产为主导的设计如何为该网站提供敏感的未来愿景。我们在这项研究中争论
摘要 社交机器人是可以与人类进行社交互动的机器人。随着社交机器人及其驱动的人工智能 (AI) 变得越来越先进,它们可能会承担更多的社交和工作角色。这具有许多重要的伦理含义。在本文中,我们重点关注其中最核心的一个,即社交机器人对人类自主性的影响。我们认为,由于社交机器人的物理存在和社交能力,它们很有可能增强人类的自主性,同时也有几种抑制和不尊重人类自主性的方式。我们认为,社交机器人可以通过帮助我们实现更有价值的目标、做出更真实的选择和提高我们的自主能力来提高人类的自主性。我们还认为,社交机器人有可能损害人类的自主权,因为它反而会让我们自己实现更少的有价值的目标,做出更少的真实选择,降低我们的自主能力,使我们的自主权更加脆弱,并且不尊重我们的自主权。社交机器人对人类自主权的影响总体上是积极的还是消极的,将取决于我们未来对社交机器人的设计、监管和使用。
《现实+》的大部分内容都集中在模拟假设上:我们生活在计算机模拟中的论点。我认为我们应该认真对待模拟假设,我们不能排除它。我还认为,模拟假设不是一个怀疑论假设,在这种假设中,我们的大多数信念都是错误的。如果我们处在一个完美的模拟中,我们的大多数信念都是正确的。因此,模拟假设不会导致怀疑论,在模拟中的生活与在非模拟世界中的生活大致一样好。本次研讨会的三位评论员都广泛关注模拟假设的认识论问题,通常会涉及怀疑论问题以及背后的价值观问题。Peter Godfrey-Smith 认为我们不应该认真对待模拟假设。Susan Schneider 和 Eric Schwitzgebel 认为,虽然完美的模拟假设可能不是一个怀疑论假设,但该假设的其他版本可能是。因此,他们认为模拟中的生活可能不如非模拟现实中的生活,并且模拟假设仍可能导致一定程度的怀疑。(另请参阅牛津心灵哲学研究中关于现实 + 的最新研讨会,其中 Terry Horgan、Christopher Peacocke 和 Grace Helton 都讨论了怀疑论的认识论以及形而上学和价值理论问题。)
摘要 玛丽·雪莱的著名小说《弗兰肯斯坦》经常被誉为第一部真正的科幻小说。在我的论文中,我使用《弗兰肯斯坦》中对生命创造的预示性视角来评估儿童基因改造的道德性。CRISPR-Cas9 正迅速成为我们这个时代再生技术中最重要的发展,许多人认为它是一种设计我们孩子的方法。我反对这种“设计婴儿”的趋势,特别是对修改未来儿童非疾病特征的合理性提出了质疑,并鼓励科学界和哲学界采取更谨慎的态度。