人工智能是一种力量倍增器,它通过交互式可视化与人类合作,为实验设计创建人工智能指南,连接模拟和实验,并将高端计算引入研究过程,从而提高核心研究、开发、演示和部署投资的生产力。由于道德是人工智能发展的关键组成部分,NREL 的人工智能发展原则包括人类的能动性和监督;科学和技术的稳健性;适用性和可持续性;透明度和可解释性;公平、公正和正义。当我们负责任地进行研究和使用技术时——解决偏见的可能性;评估和严格测试有效性并加强模型的安全性;等等——我们可以满怀信心地继续前进。
人工智能研究界正在继续努力解决其工作的伦理问题,鼓励研究人员讨论潜在的积极和消极后果。神经信息处理系统 (NeurIPS) 是机器学习和人工智能研究的顶级会议,它在 2020 年首次要求提供更广泛影响的声明。2021 年,NeurIPS 更新了他们的征文要求,其中 1) 影响声明侧重于负面社会影响,不是强制要求而是鼓励;2) 向作者提供论文清单和道德准则;3) 论文经过道德审查,可能因道德原因被拒绝。鉴于这些变化,我们对 231 份影响声明和所有公开的道德审查进行了定性分析。我们描述了围绕作者如何表达识别或减轻负面后果的能动性(或缺乏能动性)以及分配减轻负面社会影响的责任而出现的主题。我们还根据伦理审查员提出的问题类型(分为政策导向和非政策导向两类)、伦理审查员向作者提出的建议(例如,在添加或删除内容方面)以及作者、伦理审查员和原始审查员之间的互动(例如,原始审查员标记的问题与伦理审查员讨论的问题之间的一致性)来描述伦理审查。最后,根据我们的分析,我们提出了建议,说明如何进一步支持作者参与其工作的伦理影响。
基本自由、民主和法治,[并致力于促进合法、合乎道德、负责任、公平、问责和透明地设计、开发、使用和退役这些技术];[选项 B][申明缔约方承诺保护人权、民主和法治,包括通过促进合法、合乎道德、非歧视、问责、安全和透明地设计、开发、使用和退役人工智能系统;][选项 C][认识到需要在人工智能系统的设计、开发、使用和退役中促进透明度、可解释性、问责制、人的能动性和监督、技术的稳健性和安全性以及隐私和数据治理;]商定如下:第一章:一般规定
随着人工智能领域的技术变革和进步,以及人工智能对人类生活各个方面的广泛渗透,人们对技术干预和人类能动性进行了彻底的重新概念化,促进了教育领域的认识论变革。受 Web 2.0 逐渐演变为 Web 3.0 以及 Web 4.0 的预期前景的推动,世界各地的高等教育机构已经意识到迫切需要进行教学转型,以满足不断发展的世界的需求。在印度,新教育政策 (NEP) 2020 是印度政府为各级教育制定的课程框架,它强调了跨学科课程的重要性,利用技术创新来促进协作和基于活动的学习。
技能、学习者的能动性、态度和参与度的进一步提高可以为所有 G20 国家的长期增长提供额外的推动力,从而大幅提高生活水平以及个人、社会和环境福祉。技能对于促进平等机会和性别平等以及实现 G20 国家人口增长的好处至关重要,同时减轻人口老龄化或人口下降对其他国家的经济影响也至关重要。随着气候危机、数字化和全球化重塑社会、经济和劳动力市场,掌握正确的技能对于满足不断变化的技能需求和确保福祉至关重要。有效地开发、使用和管理技能至关重要 3. 实现技能的潜在好处,以支持持续的复苏、数字化和绿色转型
人工智能的兴起是影响经济和社会形态的重要事件,对城市生产生活方式产生积极影响的同时也带来了严峻的挑战,不可否认人工智能并不是被誉为万能工具的拉普拉斯妖。本文从人的能动性、未来发展、人的经验等角度分析人工智能与城市治理的关系及价值,从治理、伦理、产业、就业、经验、理念、健康、创新等角度分析人工智能与城市治理的风险与冲突,并在论文的最后从政府、企业、公众三个角度提出相应的策略选择。本研究对人工智能与城市治理研究具有一定的价值,特别是对于那些希望通过发展人工智能来推动城市治理但又无法有效应对人工智能治理的发展中国家。
当 OpenAI 的 ChatGPT 平台于 2022 年 11 月向公众发布时,许多专家和政客迅速宣告了生成式人工智能的巨大前景。1 其他知名人士迅速强调了这项新技术的潜在隐患:经济学家警告说,自动化会导致大量失业,2 非营利组织强调了不受约束、没有护栏的发展的风险。全球领导人表示担心,社会将面临生存风险,3 这些风险与前所未有的虚假信息泛滥、偏见正常化以及对人类能动性的长期威胁有关。然而,在这些关于潜在影响的辩论展开的同时,教育机构被推到了风口浪尖
3 值得一提的是,一些信任哲学家可能从信任和可信度本质上以人类为中心的前提开始;例如,假设信任需要容易被背叛,人们可能会认为一个人根本不会被人造物或缺乏能动性的东西背叛。按照 Simion 和 Kelp 在这里讨论的这种处理方式,我们可能会简单地将可信人工智能的讨论缩小为“可靠”人工智能,并关注对人工智能的理性依赖条件。然而,就我的目的而言,我与 S&K 一起假设,并遵循可信自主系统这一既定研究领域,原则上可扩展到人工智能事物是可信度的哲学观点的理想特征。无论如何,为了探索 S&K 文章的有趣特征,我不会质疑他们做出的这种可扩展性不是误导的假设。