合作通常会增加人类和其他物种的福利,但是激励代理人合作可能很困难。囚犯的困境提炼了这种社会困境的基本激励措施和回报:帕累托有效的结果是在主导的策略中,因此每个人都有强大的动力来自由骑行对另一个玩家。从理论上讲,众所周知,未来互动或重复的可能性是建立自私者之间合作的可能性:未来的遭遇可通过双关语威胁来激励合规性。然而,由于有无数的均衡,这是足够高的差异因素和不合作的平衡持续存在,因此研究如何发挥重复囚犯的困境是一种经验性练习。庞大的实验文献(请参阅下面的文献评论)解决了人类参与者合作的决定因素,形式和水平。我们研究自学算法如何发挥重复的囚犯困境。具体来说,我们将算法置于实验室实验中实施的相同经济环境中,并使用用于研究人类行为的工具分析其范围(Dal B´o and Fr´echette,2018年)。与人类一样,我们对决定因素,形式和合作水平感兴趣。在这些维度中的每个方面,我们都借鉴了实验文献,以了解社会困境中自学算法与人类之间的相似性和差异。首先,我们检查塑造人类合作的决定因素是否也影响算法合作。第二,我们询问算法采用哪种策略,并将其与人类的算法进行对比。最后,我们比较了人类与算法之间的合作水平,并询问哪些因素会导致差异。了解自学算法的行为至关重要(Rahwan等,2019)。毕竟,算法向人类提供建议或越来越多地决定他们。例如,算法可以自主驾驶汽车,调整金融投资组合,检测欺诈或设定价格等。某些自主算法在战略环境中运行,并与其他自学代理反复互动。这可能发生在协调问题中;例如,在选择流量路线或
抽象能量经常与与净零排放2060目标相关的提出有关。找到一种与十七个可持续发展目标(SDG)一致的能源可持续性解决方案实现零碳排放的方法。印度尼西亚和其他国家遵循能源三元素,这强调了三个主要因素:能源安全,能源可负担性和可持续能源,以成为计划和历史的因素,以解决所有社会,经济和环境方面。更准确地说,考虑到两国的能力,韩国和印度尼西亚提出了几种战略替代方案,其中之一是EV电池项目开发战略。除了资源和其他形式的战略支持外,韩国还投资,拥有并控制印度尼西亚的技术。印度尼西亚能够满足全球52%的镍需求。本研究研究了现代联盟和印尼电池公司联合体如何在印度尼西亚建立电动电动电池项目,这对两国都产生了影响,以实现如何成为响应气候变化的可再生能源解决方案之一。
www.miis.edu 蒙特雷明德国际研究学院是明德学院的一所研究生院,提供国际专业教育,涉及对快速变化的全球社会至关重要的领域,包括国际政策和管理、翻译和口译、语言教学、可持续发展和不扩散。我们通过以沉浸式和协作式学习为特色的学位课程以及获得和应用实用专业技能的机会,为来自世界各地的学生做好准备,让他们对所选领域产生有意义的影响。我们的学生是新兴的领导者,能够弥合文化、组织和语言鸿沟,为各种全球挑战提供可持续、公平的解决方案。
敏捷 我们随时准备迎接挑战。无论是帮助系统应对中断,还是实施关键的运营概念,我们都需要能够提出高效、动态、速赢和成熟的解决方案,以满足所有利益相关者的需求。 多样性 我们相信,无论是年龄、文化还是性别方面的多样性都是实现业务目标和创造健康高效工作环境的关键。我们珍视公平和尊严,寻求包容我们的差异,以使我们更强大。 结果驱动 我们在正确的时间为利益相关者提供正确的解决方案,以继续前进。在考虑外部和内部利益相关者的需求的同时,我们在为欧洲空中导航安全组织的目标做出贡献时承担全部个人责任。 合作 我们互相尊重,在团队环境中很好地工作。我们优先考虑我们成员国的需求,并与相关组织合作以取得最佳结果。 保持最高标准 我们提供高质量的产品、服务和流程。我们不断提高标准,确保问题能够得到解决。
人工智能与合作 计算社区联盟 (CCC) 四年一次的论文 Elisa Bertino(普渡大学)、Finale Doshi-Velez(哈佛大学)、Maria Gini(明尼苏达大学)、Daniel Lopresti(理海大学)和 David Parkes(哈佛大学) 人工智能 (AI) 的兴起将使人们越来越愿意将决策权交给机器。但我们不应该仅仅让机器做出影响我们的决策,还需要找到与人工智能系统合作的方式。我们迫切需要开展“人工智能与合作”方面的研究,以了解人工智能系统和人工智能与人类的系统如何产生合作行为。对人工智能的信任也很关键:信任是内在的,而且只有随着时间的推移才能获得。这里我们使用“AI”一词的最广义,正如最近的《AI 研究 20 年社区路线图》(Gil and Selman,2019 年)所用,其中包括但不限于深度学习的最新进展。如果成功,人类与 AI 之间的合作可以像人与人之间的合作一样构建社会。无论是出于内在的乐于助人的意愿,还是出于自身利益的驱动,人类社会都已经变得强大,人类物种也通过合作取得了成功。我们在“小”范围内合作——以家庭为单位、与邻居、与同事、与陌生人——并在“大”范围内作为一个全球社区寻求在商业、气候变化和裁军问题上达成合作成果。自然界中也进化出了合作,在细胞和动物之间。虽然许多涉及人类与 AI 合作的情况是不对称的,最终由人类控制,但 AI 系统变得如此复杂,以至于即使在今天,当人类只是作为被动观察者时,人类也不可能完全理解它们的推理、建议和行动。研究议程必然很广泛,涉及计算机科学、经济学、心理学、语言学、法律和哲学。事实上,合作可以意味着很多不同的事情。早期的分布式人工智能文献研究了所有共享相同效用函数并且都想要相同东西的人工智能系统。但我们也可以考虑自利、理性的代理人的经济模型,即寻求对他们个人最有利的代理人。合作也可以在这里产生。正如博弈论中经典的囚徒困境所熟知的那样,合作也可以在自利代理人之间的反复互动中产生。为了使人与人工智能系统成功合作,我们需要能够理解人类偏好、能够模拟他人行为、能够响应规范和道德结构的人工智能系统。我们需要在现行法律、制度和协调机制内运作的人工智能系统,并了解新类型的“相遇规则”在促进合作方面将发挥什么作用
反垄断专家和经济学家广泛讨论了通过使用定价算法来稳定合谋协议的前景。然而,这些文献往往缺乏计算机科学家的视角,而且似乎经常高估机器学习的最新进展对企业在形成卡特尔时面临的复杂协调问题的适用性。同样,支持学习算法合谋可能性的建模结果通常使用简单的市场模拟,这使得他们可以使用简单的算法,而这些算法不会产生机器学习从业者在现实问题中必须处理的许多问题,这些问题可能对学习合谋协议特别有害。在批判性地审查了有关算法合谋的文献并将其与计算机科学的结果联系起来后,我们发现,虽然调整反垄断法以处理真实市场中合谋的自学习算法可能为时过早,但其他形式的算法合谋,例如由集中定价算法促进的轮辐式安排,可能已经需要立法行动。