Academic Probations …………………………………………………………………………………………………………………………… 35 Removal of Probations ………………………………………………………………………………………………………………………… 35 Class Attendance …………………………………………………………………………………………………………………………………………………………………………………………………………。36 Dismissal from the University……………………………………………………………………………………………………………….. 36 Readmission to the University…………………………………………………………………………………………………………….….36 Handling Student Absence Due to Illness……………………………………………………………………………………….……… 36 Tardiness……………………………………………………………………………………………………………………………………………….36 Withdrawal………………………………………………………………………………………………………………..………… 37 Change of Major…………………………………………………………………………………………………………………………………… 37 Change of Grade…………………………………………………………………………………………………………………………………… 37 Repeating Courses………………………………………………………………………………………………………………………………… 37 Incomplete 年级…………………………………………………………………………………………………………………………………。37 Moral Character …………………………………………………………………………………………………………………………………… 38 Record of Disciplinary Actions……………………………………………………………………………………………………………….38毕业要求……………………………………………………………………………………………………………………………………………………………………………………………………………………………………………………………………39 AUT Undergraduate Program …………………………………………………………………………………………………………… 39 Application for Graduation ………………………………………………………………………………………………………………….. 39 Obtaining the Diploma …………………………………………………………………………………………………………………………………………………………………………………………………………………………………………………………………………………………39本科生的荣誉名称…………………………………………………………………………………………………………………………………。40
摘要 在人类生活的大多数领域,我们愿意接受存在拥有更多知识和能力的专家,这些专家使他们与非专家或外行人区分开来。尽管如此,奇怪的是,在“道德专家”的情况下,对专业知识的认可本身就变得更加有争议。道德专家存在吗?如果确实存在,我们是否有道德理由听从他们的建议?同样,新兴技术发展能否拓宽我们的道德专业知识概念?在本文中,我们首先论证试图否认道德专业知识存在(和便利性)的反对意见是不能令人满意的。之后,我们表明人们有道德理由在日常生活中寻求道德建议。然后,我们认为一些人工智能 (AI) 系统可以通过成为道德专家在人类道德中发挥越来越重要的作用。一些基于人工智能的道德助理可以称为人工智能道德专家,我们有充分的道德理由使用它们。
ba(荣誉)哲学和神学,1997年,关于道德响应依赖性的认识论论点摘要,我们如何最好地说明道德原因和要求的客观性和规范性?一个共同的答案是非自然主义的道德现实主义,它认为不可否认的规范性属性,事实或真理是与思想无关的世界的特征。我对这种观点产生了新颖的认识论反对意见,表明,如果我们把它们奉献给这种事情,我们永远无法理性地决定接受我们的普通道德信念。i然后检查我们如何有针对非道德类型的原因和要求,包括与游戏玩法相关的原因。i展示了这些原因和要求是如何作为我们构建的规范实践的构成部分出现的。该模型被扩展为解释器乐,认知和道德规范性真理。
荷兰代尔夫特理工大学伦理与技术教授 Ibo van de Poel 和荷兰埃因霍温理工大学技术伦理副教授 Lambèr Royakkers 指出,即使工程师仅仅注重创造经济价值,他们开发的产品也往往会产生根本的社会影响,例如增加或减少边缘化人群的机会:“从这个意义上说,工程是一种本质上受道德驱动的活动。然而,让世界变得更美好并非易事,也不可能仅凭工程知识就能实现。它还需要伦理反思和知识等。”24 在他们的著作《伦理、技术与工程:导论》中,他们概述了工程师培养道德情感、道德分析、道德创造力、道德判断、道德决策和道德论证所需的技能。他们所做的决定可能会根据残疾、教育背景、性别角色或经济状况等因素纳入或排除潜在用户。
abtract:在道德上可接受的AI发展过程应避免两种危险:创建对人类构成威胁并虐待AI系统的非对齐的AI系统,并以自己的权利为由。本文认为这两种危险相互作用,如果我们创建值得道德考虑的AI系统,同时避免这两种危险将极具挑战性。尽管我们的论点是直接的,并且得到了广泛的自称道德判断的支持,但它对人工智能发展具有深远的道德意义。尽管避免对齐和道德待遇之间的紧张关系的最明显方法是避免创建值得道德考虑的AI系统,但此选项可能是不现实的,也许是短暂的。因此,我们通过为减轻与一致性相关的虐待风险的其他方法提供了一些建议。
杰里米·边沁 6 和约翰·斯图尔特·密尔 7 曾有著名论述,实体因其具有获得快乐或喜悦、痛苦或苦难的能力而值得道德考虑。在功利主义的简单版本中,道德选择是那些最大化世界享乐平衡的选择——世界快乐总和减去世界苦难总和。一个实体因其对这些总和的贡献能力而值得道德考虑。那么,对人工智能系统道德地位的一种简单的功利主义方法是这样的:人工智能系统能够体验快乐或痛苦的程度,它就值得道德考虑,能够体验人类快乐和痛苦水平的人工智能系统应该得到与人类同等的道德考虑。在考虑做什么时,我们应该像重视我们自己的享乐状态一样重视它们的享乐状态。
抽象的是自由意志与道德责任之间关系的任何一种,例如我们是否可以在没有前者的情况下拥有后者,如果是的话,必须满足哪些条件;无论人们想到人工智能的代理人是否可能符合这种情况,人们仍然面临以下问题。道德责任的价值是什么?如果我们承担道德责任是成为道德责备或赞美的目标的问题,那么对它们的商品是什么?关于“机器道德”的辩论通常会涉及人工代理人是否或可能在道德上负责,并且通常被认为是理所当然的(遵循Matthias 2004),如果他们不能,他们对道德责任系统和相关商品构成威胁。在本文中,我通过询问该系统的商品(如果有的话)以及面对人工智能的代理人会发生什么,挑战了这一假设。我会争辩说,他们既不引入道德责任制度的新问题,也不会威胁我们真正(应该)关心的事情。我以有关如何确保这一目标的建议结束了本文。
将一项政策视为有害会导致对其道德谴责。然而,这种有害性可以通过建立在可用、可访问和相关的话语之上来构建和协商,从而导致不同的道德立场。本研究考察了个人在对一项有争议的政策——菲律宾总统杜特尔特的禁毒战争(当地称为“tokhang”)进行道德推理时如何构建和协商危害。我们进行了主题分析,关注话语,分析了对 12 名菲律宾年轻人的采访,以二元道德理论为起点,理解危害的构建。关于“tokhang”的推理表明,作为道德立场基础的故意行为者和脆弱受害者的不同构造。对禁毒战争的道德谴责强调了受害者的脆弱性以及政府和警察作为行为者的故意性。另一方面,该政策的道德辩护将禁毒战争受害者构建为行为者和有罪者,将警察构建为潜在的脆弱受害者,他们按照协议为自己辩护,而流氓行为者则独立于政策行事。当伤害的因果关系不明确时,立场模糊也是可能的。这些建构和协商建立在城市青年社会政治背景下更广泛的话语之上,个人背景和特征导致某些话语的可及性和相关性以及由此产生的道德立场存在差异。
AI系统已经快速高级,多元化和扩散,但是我们对人们对他们的思想和道德的看法的了解仍然有限,尽管它对人们是否信任AIS以及他们如何分配AI引起的危害的责任。在一项预先进行的在线研究中,有975名参与者对26个AI和非AI实体进行了评价。总的来说,AI被认为具有低到中度的代理(例如,计划,行动),无生命的物体和蚂蚁之间以及低经验(例如,感应,感觉)。例如,Chatgpt的评分只能像岩石一样能够感到愉悦和痛苦。类似的道德能源,道德机构(做对与错)和道德专案(正确或错误地对待)较高,更多样化,尤其是道德机构:最高评级的AI,Tesla Full自动驾驶的汽车,被认为是道德上的危害,以危害作为黑猩猩。我们讨论了设计选择如何帮助管理感知,尤其是在高度的道德背景下。
