交付我们在IDP和SDBIP中反映的承诺至关重要。我希望开普敦团队的所有成员都将重点放在预期的成果上并接受合作。交付将在我们新批准的组织价值观的背景下进行,即服务卓越,关怀,问责制,创新和开放性。重要的是,基本服务和基础设施还必须有效地且在适用立法的范围内交付。我们对腐败,欺诈和不道德实践的容忍度为零。
简介 1. 举报是指某人对渎职、不法行为、风险或非法行为提出担忧的过程,这些行为会损害或给使用服务的人、员工或更广泛的社区带来损害风险。举报不同于投诉或提出申诉,举报是指个人目睹其组织中存在某种形式的渎职行为并需要提出担忧的情况。 2. 本政策涵盖举报,并鼓励空军学员大家庭中的任何人“直言不讳”;就安全问题。与其他问题相关的举报,例如:健康、安全和环境、欺诈、刑事犯罪、冤假错案、不遵守法律义务、不道德行为等,均受 RAFAC 的主要举报政策的约束,该政策详见 ACP 20(Pers 121)(志愿者和学员)或 MOD 的举报政策和报告程序(长期工作人员)。请注意,此政策不会取消针对个人安全问题的常规报告流程。如果问题涉及一般投诉或申诉,则适用 ACP 20 人事条例(Pers 120)中规定的程序。3. RAFAC 致力于诚实正直地开展业务,并希望所有员工和志愿者都保持同样的高标准。但是,事情总是有可能出错,或者组织在不知情的情况下包庇非法或不道德的行为。 RAFAC 提倡开放和负责的文化,这项政策旨在:
人工智能 (AI) 程序(例如生成式 ChatGPT)可以成为有趣且有用的写作和研究工具。语法检查器和引文生成器就是有用的 AI 应用程序的示例。然而,在学术环境中,很难知道写作和研究工具何时会越界成为不道德的使用和抄袭。如果学生使用 AI 工具来生成课堂作业而不是原创想法、分析和研究,那么就违背了学习的目的,即独立与课程内容互动。
开发人员必须将他们的担忧告知管理层,但他们的抱怨可能会遭到冷漠对待,甚至威胁要更换他们 1 。这种情况属于社会困境,我们在本文中的目标是强调人工智能开发人员面临的社会困境对道德人工智能发展的阻碍。我们认为,当前人工智能开发中的道德实践方法未能解释开发人员在做正确的事情和保住工作之间做出选择的挑战。如果每个人都以某种方式行事,社会就会获得最佳结果,但实际上实施这种行为会给个人带来不利影响,以至于他们不得不避免这样做,这就存在社会困境。我们发现的问题是,当前的结构往往把拒绝不道德开发的负担放在开发人员的肩上,而由于他们的社会困境,他们不可能做到这一点。此外,这一挑战将变得越来越重要和普遍,因为人工智能正在成为当前最具影响力的技术之一,对开发的需求巨大 [ 1 , 2 ]。人工智能领域的进步推动了数据分析和模式识别的空前进展,进而推动了该行业的进步。这一进步主要归功于机器学习,这是一种数据驱动的方法。所使用的数据在大多数情况下都是历史数据,因此可以反映歧视性做法和不平等现象。因此,当前使用的许多机器学习模型巩固甚至加剧了现有的歧视性做法和不平等现象。此外,人工智能技术即使不具有歧视性,其发展也是不道德的。基于面部识别、智能警务和安全城市系统等大规模监控已被多个国家使用 [3],社交媒体使用的新闻推送模型产生了回音室效应并助长了极端主义 [4],自主武器系统正在生产中 [5]。人工智能伦理领域以及机器学习公平性等子领域发展迅速,例如 [6-9]。然而,目前尚不清楚人工智能开发在实施道德实践方面是否取得了很大进展,也不清楚开发人员是否被授权拒绝参与不道德的人工智能开发。《2021 年人工智能指数年度报告》[ 10 ] 等报告强调人工智能开发伦理缺乏协调。具体来说,该报告的九大亮点之一指出“人工智能伦理缺乏基准和共识”。大型公司(也被称为“大型科技公司”)是开发绝大多数人工智能系统的公司。这些公司对学术界和公众的压力作出了反应,发布了人工智能开发伦理的指导方针和原则。过去几年,这类文件的数量可谓激增 [ 11 – 13 ]。尽管研究人员和社会都认为人工智能开发伦理很重要 [ 14 ],但伦理准则和原则的泛滥遭到了伦理研究人员和人权从业者的批评,他们反对不精确使用伦理相关术语 [ 15 , 16 ]。批评者还指出,上述原则在大多数情况下不具约束力,而且由于其模糊和抽象的性质,在实施方面也没有具体规定。最后,它们没有赋予开发人员拒绝不道德的人工智能开发的权力。成熟的人工智能伦理的后期发展
绩效标准包括财务(定量)和非金融(定性)绩效标准的适当组合。确定绩效标准的每个级别 /加权的相对重要性是预先确定的,并且可以充分平衡以考虑员工的职位和责任。在可能的范围内,绩效标准包括可实现的目标和雇员具有直接影响的措施。以不道德或不合格的行为形式的负面非财务绩效必须覆盖银行和工作人员SBU产生的任何良好财务绩效。
2023年1月25日,罗克韦尔自动化冲突矿产供应链声明罗克韦尔自动化致力于我们供应链中的高道德标准和社会责任。这包括支持2010年的Dodd-Frank Wall Street改革和消费者保护法(Dodd-Frank),因为它与冲突矿物有关(第1502节),旨在消除刚果民主共和国(DRC)地区非法,不道德和不人道的行动的支持。虽然我们不直接购买Tin,Tungsten,Tantalum和Gold,但它们可能存在于我们购买的材料和组件中。
此外,为了公平解决与道德和诚信相关的问题和疑虑,公司向客户、候选人、专业人士、供应商和与我们有业务关系的任何其他方提供举报渠道,举报在管理解决方案活动执行过程中可能被视为不规范、不道德、非法或不当的行为。任何发现的违反公司内部政策和公司经营所在国家现行法规的行为均通过道德渠道 3 报告给全球 QA(他们将独立客观地评估投诉,并确保不会对任何善意提出疑虑的人进行报复)。
•拥抱和实践生活中的宪法,人文,道德和道德价值观,包括人类普遍的真理,正义,和平,爱,非暴力,科学脾气,公民身份价值观。•从多个角度提出有关道德问题的立场/论点。•确定与工作有关的道德问题,并遵循道德实践,包括避免不道德的行为,例如制造,伪造或虚假数据,涉及窃,并坚持知识产权。•在工作的各个方面都采取客观,公正和真实的行动。
使用基于大型语言模型 (LLM) 的人工智能也引发了潜在的伦理问题,例如 ChatGPT,这款虚拟人工智能聊天机器人由初创公司 OpenAI 于 2022 年 11 月首次亮相,推出仅两个月后,月活跃用户就达到 1 亿。沃顿商学院的 Christian Terwiesch 教授发现,ChatGPT 可以通过典型的沃顿商学院 MBA 核心课程的期末考试 [8],这引发了一场关于在教育中使用人工智能的伦理影响的全国性讨论。虽然一些教育工作者和学者对 ChatGPT 可能被滥用于作弊和抄袭敲响了警钟,但从法律行业到旅游行业的行业从业者都在试验 ChatGPT,并讨论人工智能对业务和工作未来的影响 [9]。本质上,大型语言模型是一种在大量文本上进行训练的深度学习算法。数据中遗留的偏见可能导致数字歧视的出现,尤其是当各种基于 LLM 的模型都是基于不同模式(例如图像、视频等)的数据进行训练时。此外,在某些情况下,缺乏对数据收集、模型训练和使用的监督和监管也可能存在问题和不道德。鉴于人工智能聊天机器人的快速发展和渗透,我们必须调查人工智能的道德和不道德使用之间的界限,以及 LLM 应用程序使用中潜在的数字歧视。