1.4.不歧视。为了确保公平和非歧视,人工智能参与者必须采取措施,确保他们使用的算法和数据集、用于处理机器学习的数据的方法、与数据相关的分组和/或分类个人或群体,并不意味着他们有意歧视。鼓励参与者创建和实施方法和软件解决方案,以识别和防止基于种族、国籍、性别、政治观点、宗教信仰、年龄、社会和经济地位或私人生活信息的歧视(尽管歧视不能(必须认识到人工智能参与者明确声明的、考虑到这些特点而针对不同用户群体细分的人工智能的运行或应用规则)。
索引 前言 1. 一般原则 1.1.目标 1.2。基本原则 1.3.收件人 1.4。广泛的控制和报告 1.5。监督机构的控制任务 1.6.纪律程序和制裁 1.7.报告违规行为或请求信息的程序 2. 人力资源和就业政策 3. 工作健康和安全 3.1.公司职业健康安全管理体系(SGS)3.2。接收方在健康和安全方面的义务 4. 环境政策 4.1.公司环境保护管理体系(EMS) 5. 对待第三方和业务的行为 5.1.一般原则 5.1.1.利益冲突 5.1.2.礼物或其他好处 5.2.与公共行政部门的关系 5.3。与顾问的关系 5.4。与政治和工会机构的关系 5.5。客户关系 5.6.与供应商和分包商的关系 5.7.与竞争对手的关系 5.8.与大众媒体、研究公司、行业协会和其他类似机构的关系 5.9.与社区的关系 6. 公司管理行为 6.1.与成员的关系 6.2.与审计委员会的关系 6.3。资本和股权交易 6.4.会计透明度
4。遵守《守则》和适用的立法守则规定了道德原则,并解决了您在工作过程中可能会遇到的关键问题。由于代码是商业行为的概述,因此无法解决您可能面临的每种情况,法律要求或文化敏感性。遵循以下基本准则:履行职责时始终诚实,公正地行事
应测试并持续监控采用人工智能的系统,以防其因群体成员身份而对任何群体或个人造成不成比例的影响。偏见可以在人工智能系统的许多层面上引入,包括选择用于训练的数据、算法本身以及用户与系统的交互方式。与群体成员身份相关的偏见,通常称为文化偏见,是一种需要监控和测试的重要偏见类型。它通常源于数据集本身。数据集中还可能出现许多其他类型的偏见,包括但不限于历史、时间和聚合偏见。应使用代表人工智能系统在生产中会遇到的案例类型的数据进行训练和测试。对于直接影响系统,这意味着确保培训材料和测试包括代表服务人群的群体和角色的案例。对于间接影响系统,代表性意味着包括生产中可能发生的不同情况的样本,包括边缘情况。本小节的其余部分是直接影响系统的要求,对于任何使用人工智能的系统都强烈建议这样做。应注意所选输入不会使输出偏向任何群体或反对任何群体,除非这种偏见是故意的并且有明确的记录。应审查具有已知偏见的系统,并制定补救计划,以确保采取足够的保障措施防止不适当的结果。补救计划可能包括在缺乏足够保障措施的情况下退役或更换系统。
本节概述了将作为模块的一部分完成评估任务的类型。更多的详细信息将在相关的学年模块手册中提供。指示性评估任务:该模块的评估包括两个组成部分;第一个任务是与AI伦理有关的案例研究,是从现实情况下得出的(例如,有偏见的算法决策 - 侵犯隐私,自动驾驶汽车),要求学生进行严格分析案件学生带来的道德困境并应用相关的道德框架(例如功利主义,道义论)评估情况并提出解决道德挑战的建议。The second assignment requires students to imagine they are an AI ethics consultant for a tech company who has been tasked with developing an AI ethics policy that addresses key ethical considerations (e.g., bias, transparency, privacy), taking into consideration the company's specific context, stakeholders and industry, and then justifying their policy decisions based on ethical principles and societal impact producing, as a deliverable, a policy document.
每天,在委内瑞拉的梅尔巴都会在凌晨 4 点起床,为机器学习算法注释数据。她是全球众多登录众包平台为开发人工智能的科技公司执行任务的工作者之一。她每周可以全职工作 15 到 20 美元,足以补充她的养老金,由于持续的恶性通货膨胀,她的养老金现在每月只值一美元:“不够买半打鸡蛋;不够买一块奶酪或面包。” 由于经济和 COVID-19 形势严峻,梅尔巴和许多其他委内瑞拉人都转向为在线平台工作。虽然这些工作提供了较低的进入门槛和稳定的美元收入,但它们并不能提供稳定的就业:这些工人被视为自由职业者,被这些公司称为评估员、标注员或注释员。作为我论文研究的一部分,我调查了拉丁美洲各地通过数字劳动平台为人工智能注释数据的工人的经历。通过这项研究,我遇到了梅尔巴和其他许多人,我在下面列出了他们的故事。我通过社交媒体上的工人小组与他们取得了联系,自疫情开始以来,我们就在网上聊天。我之所以联系他们,是因为委内瑞拉人占拉丁美洲人工智能平台工人的大多数,作为一名拉丁裔,我想听听他们的经历。总的来说,我发现这种平台劳动是剥削性的,但也是为了抹杀工人的声音。本文探讨了委内瑞拉平台工人的工作条件及其与他们帮助创造的人工智能的关系。我认为劳动力是人工智能中一个尚未充分探索和研究的领域。作为批判性人工智能学者,我们无法说出什么是“道德的”、“有益的”或“负责任的”,除非
在这两个版本之间,《准则》有很多变化。最初的八项原则被重新排序,以反映软件专业人员考虑其道德义务的顺序——3.0 版的第一项原则是产品,而 5.2 版的第一项原则是公众。在完整版《准则》的前面添加了一个缩短版《准则》,以便快速查看《准则》的原则(见方框)。但是,这个缩短版不能被视为一个独立的缩写版,因为这会削弱完整版的详细广度和深度。这些细节对于为这些道德原则的实际应用提供明确的指导是必要的。《准则》的序言经过了重大修订。它包括具体的道德标准,以帮助专业人士做出道德决策。
描述:一名结构工程师承认,不列颠哥伦比亚省萨里市的一座高层住宅楼的设计不符合 2006 年不列颠哥伦比亚省建筑规范,特别是有关抗震和风荷载的要求。作为负责该建筑设计的注册专业人员,该工程师保证该建筑的设计符合 2006 年不列颠哥伦比亚省建筑规范。在不列颠哥伦比亚省工程师和地质学家的调查和纪律处分过程中,该工程师承认,除其他指控外,他们未能充分开展设计流程,他们使用的 2010 年国家建筑规范中的要求比 2006 年不列颠哥伦比亚省建筑规范中的要求保守性较低,而他们没有使用同一规范中更为保守的其他要求。此外,该工程师承认未能确保对设计进行适当的独立审查。由于所有违规行为,该工程师被指控专业失当。该工程师同意辞去其会员资格,支付 25,000 美元的罚款(这是以前立法允许的最高罚款),并支付 215,000 美元的法律费用。8
一些备受瞩目的事件,例如对弱势群体进行情绪识别系统的大规模测试以及使用问答系统进行道德判断,都突显了技术往往会给那些已经被边缘化的人带来更不利的结果。这里的问题不仅仅是单个系统和数据集,还有人工智能任务本身。在本立场文件中,我主张不仅在单个模型和数据集的层面上考虑伦理考虑,也在人工智能任务的层面上考虑伦理考虑。我将介绍这种努力的一种新形式,即人工智能任务的伦理表,致力于充实隐藏在任务通常如何构建以及我们在数据、方法和评估方面所做的选择中的假设和伦理考虑。我还将以情绪识别任务为例,介绍一个包含 50 项道德考量因素的道德表模板。道德表是一种在构建数据集和系统之前参与和记录道德考量因素的机制。与调查文章类似,少量精心制作的道德表可以为众多研究人员和开发人员提供服务。
简介合规性和道德规范构成了我们在安德里兹(Andritz)开展业务方式的基础,我们已经在自己的行为守则和道德守则中提出了业务。关于合规性,我们致力于作为我们行动的基石的正直,尊重,可靠性和可持续性。我们知道,我们符合自己的合规性标准的能力在很大程度上取决于我们如何与供应商一起工作。因此,我们希望我们的供应商遵守一组规则,以确保我们基于相同的价值观和原则来工作。因此,本“供应商代码”阐明了所有供应商与Andritz开展业务的最低要求。本供应商代码中规定的原则构成了我们供应商选择和评估的基本标准。供应商代码应构成Andritz Group及其供应商成员之间所有采购订单或合同的一部分。
