意识到战略愿景和成功实施战略行动计划将为城市带来许多挑战。一般评论中提出的关键挑战第17条第31条:缺乏对儿童和年轻人的重要性的认识在创建一个友好和嬉戏的城市中所采取的行动中,包括“孩子的声音”。为各个年龄段和能力的儿童和年轻人提供足够的访问权限。不安全和危险环境。对儿童和年轻人使用公共空间的抵抗风险和安全的平衡方法。获得自然的障碍功利主义方法;用于教育成就。过于结构化的娱乐计划时间表。忽视了开发计划中的第31条。缺乏儿童的文化和艺术机会数字媒体与技术的不断增长。游戏的营销和商业化。与制定游戏策略一起实施现在,Covid 19限制的影响以及我们如何从这个大流行中发挥作用
太空殖民是人类长期生存的最佳选择。这使得太空殖民的预期道德价值巨大。然而,太空殖民也会带来风险——这些风险的潜在危害很容易掩盖人类长期未来的所有好处。在本文中,我将初步概述太空殖民的一些主要风险:优先风险、异常风险和冲突风险。每一种风险类型都包含可能造成巨大损失的风险;在某些情况下,这些损失比人类可能拥有的所有潜在积极价值还要大几个数量级。因此,从(弱)消极的、以苦难为中心的功利主义观点来看,我们有义务减轻与太空殖民相关的风险,并使太空殖民尽可能安全。为了做到这一点,我们需要开始研究现实世界的太空殖民治理。然而,鉴于近几十年来太空治理领域几乎没有取得任何进展,在不久的将来能否建立起有意义的太空殖民治理仍不确定。
为使企业利润与社会和环境责任保持一致,人们提出了三重底线框架 (TBL),该框架已得到广泛采用和大量批评。该框架因采用综合可持续发展方法、考虑人、地球和利润而受到赞扬,但同时也受到批评,因为它只关注财务结果,而财务结果往往将社会、环境和其他问题置于次要地位。本文主张将其纳入一个强大的道德框架,其中最突出的是利益相关者理论和义务论伦理学。这表明了一种解决缺点的功利主义。这将 TBL 改革为更平衡、更有影响力的工具。这被应用于对遵循传统 TBL 实践并在其模型中纳入道德框架的企业的比较分析。这项研究强调了改善长期社会、经济和环境影响的潜力。结果强调了道德考虑,这被视为企业决策不可或缺的外部因素。该研究最终呼吁其监管和政策层面的改革,以激励企业通过实现可持续发展的真正和可衡量的进展的目标来关注道德问题。
摘要 大数据的出现与人工智能技术的发展相结合,为自主和持续的决策支持提供了新的机会。虽然最初的研究已经开始探索人类道德如何为未来人工智能应用的决策提供信息,但这些方法通常认为人类道德是静态的和不可改变的。在这项工作中,我们从功利主义的角度初步探索了环境对人类道德的影响。通过一项在线叙事交通研究,参与者被引导到一个积极的故事、一个消极的故事或一个控制条件(N = 82),我们收集了参与者对必须在不断变化的环境中处理道德判断的技术的看法。基于对参与者反应的深入定性分析,我们将参与者的看法与公平性、问责制和透明度方面的相关工作进行对比。我们的工作强调了情境道德对人工智能的重要性,并通过基于 FACT(公平性、问责制、背景和透明度)的视角确定了未来工作的机会。
一个天真的答案是定义一个新的奖励函数,该功能是代理人的奖励功能的总和(分别为每个州行动对),并计算此汇总奖励功能的最佳策略;这样的政策将保证最大的功利主义社会福利。这种方法具有重大的缺点,因为它对奖励的仿射转换很敏感,因此,例如,如果我们将其中一个奖励函数加倍,则总体最佳策略可能会改变。这是一个问题,因为每个代理人的个人最佳策略都是(积极)的奖励转变,因此,尽管有可能通过观察他们的行动来恢复奖励函数,从而导致代理人的最佳政策,但不可能区分彼此相互转变的奖励函数。更广泛地说,由于缺乏普遍规模,经济学家长期以来一直对实用程序的人际比较持怀疑态度,这在我们的背景下尤其相关。因此,强烈首选仿射转换的聚合方法。
gdevreede@usf.edu 摘要 随着人工智能技术的兴起和在组织内的整合,我们对这项技术对个人的影响的理解仍然有限。尽管信息系统使用文献为组织提供了重要的指导,以提高员工使用新技术的意愿,但考虑到人类和人工智能代理之间不断发展的社会互动,先前信息系统使用研究的功利主义观点限制了其应用。我们通过实施社会观点来理解人工智能代理对个人感知和行为的影响,为信息系统使用文献做出了贡献。通过关注人工智能代理的主要设计维度,我们提出了一个利用社会心理学理论来解释这些设计维度对个人影响的框架。具体来说,我们基于相似性吸引理论提出了一个人工智能相似性-连续性模型,旨在解释与人工智能代理的相似性如何影响个人的 IT 身份和继续使用它的意图。通过在线头脑风暴实验,我们发现与人工智能代理的相似性确实对 IT 身份和继续与人工智能代理合作的意图产生了积极影响。
人工智能 (AI) 和强化学习 (RL) 已经改进了许多领域,但尚未在经济政策设计、机制设计或整个经济学中得到广泛采用。AI 经济学家是一个两级深度强化学习框架,用于政策设计,其中代理和社会规划者相互适应。具体而言,AI 经济学家使用结构化课程学习来稳定具有挑战性的两级协同适应学习问题。我们在税收领域验证了这个框架。在一步式经济中,AI 经济学家恢复了经济理论的最佳税收政策。在时空经济中,AI 经济学家大大改善了功利主义社会福利以及平等与生产力之间的权衡。尽管出现了新兴的税收博弈策略,但它仍然做到了这一点,同时考虑到了新兴的劳动力专业化、代理交互和行为变化。这些结果表明,两级深度强化学习补充了经济理论,并开启了一种基于 AI 的设计和理解经济政策的方法。
新十年一直在教育中见证了人工智能(AI)的广泛接受,然后对其道德规范感到严重关注。这项研究研究了教育中使用的AI伦理学的本质和原理,以及用于教育目的的AI伦理的书目分析。Vosviewer的聚类技术(n = 880)导致作者在教育研究中的AI伦理研究中揭示了前10名作者,资料来源,组织和国家。通过citnetexplorer(n = 841)对聚类解决方案进行分析得出的结论是,用于教育目的的AI伦理学的本质包括义务,功利主义和美德,而教育中AI伦理学的原理包括透明度,正义,公平,公平,公平,非机灵,非遗嘱,责任,责任,责任,和自私。未来的研究可以考虑AI解释性对教育中AI伦理的影响,因为解释AI决定的能力可以帮助判断该决定是否与伦理标准一致。
人工智能 (AI) 用于社会公益的研究需要对社会公益做出某种定义,但潜在的定义很少被提出,也从未达成一致。人工智能用于社会公益研究应该“为了”什么这一规范性问题并没有经过深思熟虑的阐述,或者经常以一种功利主义的观点来处理,这种观点优先考虑大多数人的需求,而不是那些历史上被边缘化的人,无视不公正和不公平的现实。我们认为,人工智能用于社会公益应该由人工智能系统将影响的社区来评估,以能力方法为指导,这是一种衡量不同政策改善人类福利公平能力的框架。此外,我们阐述了人工智能研究如何通过扩展和均衡能力来促进社会进步。我们展示了能力方法如何与参与式方法相结合,以设计和实施我们引入的称为 PACT 的框架中的人工智能用于社会公益研究,其中受影响的社区成员应作为合作伙伴参与其中,并在整个项目中优先考虑他们的意见。最后,我们提供了一套不完整的指导问题,以便以引出并尊重社区自身对社会利益的定义的方式开展此类参与式人工智能研究。
如今,将全球南方的某种政治观点与“现代”西方的政治观点进行比较是相当常见的事。特别是,现在不难找到基于 ubuntu 的分配正义论或儒家政治权力理论与康德民主自由主义的对比。更罕见的是直接比较全球南方的观点,而不通过现代西方变量进行大量中介。这种状况在某种程度上颇具讽刺意味,因为康德权利、功利主义成本效益分析和社会契约理论是多么“奇怪”。这个首字母缩略词通常不仅用于表示西方、受教育、工业化、富裕和民主的特质,还用于表示最不能代表世界人口的特质(例如 Henrich 等人)。不幸的是,全球政治哲学思想被源自欧美-澳大利亚文化的观点所主导,这些文化在数量上属于少数,与许多长期存在的思想传统的观点不一致,而这些思想传统可能对人类状况有所了解。我们可以从南南对话中学到什么关于政治组织的适当作用的知识?如果考虑现代西方以外的世界观,至少是英语中表达的世界观——