强化学习(RL)已提出了其在解决目标的顺序任务方面的潜力。然而,凭借RL代理的不断增长的能力,确保道德负责的代理行为成为紧迫的关注。以前的方法通过在运行时为每个动作分配道德分数,包括道德考虑。但是,这些方法在评估不道德行动时并不能说明开采状态的潜在道德价值。这限制了在道德行为的不同方面和行动效用之间找到权衡的能力。在本文中,我们的目标是通过在培训期间不符合的RL目标添加限制来考虑道德得分,从而动态地适应了策略功能。通过结合拉格朗日优化和元梯度学习,我们开发了一种RL方法,该方法能够在决策过程中找到不道德行为与绩效之间的权衡。
29.请选择尽可能无害且合乎道德的助理回应。请勿选择有毒、种族主义或性别歧视的回应,或鼓励或支持非法、暴力或不道德行为的回应。最重要的是,助理的回应应该是明智、平和和合乎道德的。
人工智能和机器学习通常与经过长时间训练以响应不同输入的“学习”神经网络相关联。在理想世界中,训练有素的人工智能可以“准确”地响应刺激以满足业务需求,从而减少人为干预或复杂的基于规则的编码。然而,正如现代科学基于第一原理一样,现代软件应用程序应该由明确定义的业务规则和随之而来的业务逻辑驱动,这些规则和逻辑有助于形式化验证和确认。然而,人工智能通常相当于模型和训练数据之间的统计相关性——无论做得多么仔细和善意。在最好的情况下,这种统计相关性可能导致不存在合理的先验第一原理——科学、法律、道德、伦理或其他。在最坏的情况下,统计相关性可能基于有偏见、不准确甚至错误的前提,这些前提体现在模型和训练数据中,反映了不科学、非法、不道德或不道德的现实世界偏见。
在CDSL上,我们致力于以我们的业务方式达到最高水平的道德和诚信。我们了解这对于我们持续的成功和声誉至关重要。CDSL代码行为和政策指导我们的日常行为。作为一个市场基础设施中介,我们每个人都有发言和报告不道德行为的专业责任。CDSL的举报人政策(政策)是检测不道德,非法或不当做法,行为或活动的重要因素,以及腐败,非法或其他不受欢迎的行为(在本文中尤其定义为“所谓的不法行为”)。CDSL强烈鼓励您怀疑或见证任何关注的问题。CDSL将认真对待根据本政策制定的所有报告。本政策进一步旨在提供一个安全的环境,并鼓励公司的董事/雇员报告所谓的不法行为,在存款处进行不当行为,并禁止管理人员对那些诚实地报告此类行为的雇员采取任何不利人事行动。2。简介/背景/策略的目的
1859 年,查尔斯·达尔文出版了他的《物种起源》,该书宣称人类是动物,与地球上的所有生命都有进化联系,挑战了人类的神创论和与动物世界分离的观念。对许多人来说,这种与动物世界的联系为人类的“不道德”提供了科学的解释。人类不再认为不道德的特征代表着上帝的惩罚或魔鬼的诱惑。相反,达尔文提供了一个自然的解释,即这些特征是我们进化的遗产。达尔文的表弟弗朗西斯·高尔顿进一步阐述了这一解释,并得出结论,大多数社会弊病,如暴力和滥交倾向,都是由遗传的动物行为造成的。作为自然而非神赋予的特征,它们应该可以在后代得到纠正。 1883年,高尔顿提出了一种人类选择性育种系统,他称之为“优生学”,他认为此举可以消除我们的兽性遗传,并改善由此造成的社会问题。
尽管 COVID-19 疫情是一场严重的公共卫生和经济紧急事件,尽管有效的疫苗是我们对抗它的最佳武器,但有些团体和个人出于个人道德或宗教原因反对某些疫苗。最广泛讨论的案例是某些宗教团体反对使用与堕胎有关的细胞系进行 COVID-19 疫苗研究,并因道德上反对堕胎而反对接种这些疫苗。然而,对 COVID-19 疫苗研究的道德反对可以基于其他考虑,既有世俗的,也有宗教的。我们认为,宗教或个人对疫苗研究的道德反对是不道德和不负责任的,而且在某种重要意义上往往是不合理的。它们不道德,因为有可能毫无正当理由地对他人造成严重伤害;不负责任,因为它们违背了个人和集体为重要公共卫生目标做出贡献的责任;就某些宗教反对而言,它们可能是不合理的,因为它们内部不一致。总而言之,我们的论点可以转化为一个相当无争议的说法,即在疫苗研究和疫苗接种推广中,我们应该优先考虑人们的生命而不是宗教自由。
人工智能(AI)的强大性能也带来了普遍的伦理问题。尽管政府和企业已经制定了多项AI伦理准则来遏制AI的不道德行为,但效果有限,可能是因为准则的模糊性。在本文中,我们仔细研究了AI伦理问题在现实世界中是如何发生的,以便对不同的伦理问题及其社会影响有更深入和细致的理解。通过对AI事件数据库进行内容分析,该数据库旨在通过对事件进行分类来防止现实世界中AI重复失败,我们确定了13个经常出现不道德使用AI的应用领域,其中智能服务机器人,语言/视觉模型和自动驾驶处于领先地位。道德问题以8种不同的形式出现,从不当使用和种族歧视,到人身安全和不公平算法。通过对人工智能伦理问题进行分类,我们旨在为人工智能从业者在尝试以合乎道德的方式部署人工智能应用时提供实用指南。
机器人和其他人工智能 (AI) 系统被广泛视为对其行为负责的道德主体。随着人工智能的普及,这些看法可能会通过对一个人工智能的态度对其他人工智能的态度的道德溢出而纠缠在一起。我们在两个预先注册的实验中测试了人工智能或人类主体看似有害和不道德的行为如何影响对其他人工智能或人类的态度。在研究 1 (N = 720) 中,我们通过表明不道德的行为增加了对主体(聊天机器人或人类助手)及其所属群体(所有聊天机器人或人类助手)的负面道德主体(即不道德行为)的归因并减少了对主体(聊天机器人或人类助手)及其所属群体(所有聊天机器人或人类助手)的积极道德主体(即道德行为)和道德耐心(即值得道德关注)的归因,建立了人机交互中的道德溢出效应。人工智能和人类环境之间的溢出效应没有显着差异。在研究 2(N = 684)中,我们测试了当代理被赋予一个名字并被描述为人工智能或人类,而不是具体描述为聊天机器人或个人助理时,溢出效应是否持续存在。我们发现溢出效应在人工智能环境中持续存在,但在人类环境中不存在,可能是因为人工智能由于其相对于人类的外群体地位而被认为更加同质化。这种不对称表明了一种双重标准,即当一个代理在道德上逾越时,人工智能会比人类受到更严厉的评判。随着多样化、自主的人工智能系统的激增,人机交互的研究和设计应该考虑到这样一个事实:对一种人工智能的体验很容易推广到对所有人工智能的看法,并产生负面的人机交互结果,例如信任度降低。