摘要本研究研究了科学的伦理层面,目的是探讨伦理学如何在科学研究和技术发展中发挥作用。本研究解决了几个重要问题,例如人类和动物研究中的伦理,技术对社会的影响以及科学家的社会责任。在这种情况下,我们回顾了道德哲学的各种方法,例如道义论,这些方法强调科学家根据道德原则和实用主义的道德义务,这更多地关注了使社会受益的结果。此外,这项研究强调了道德监督机制的重要性,例如伦理委员会(机构审查委员会/IRB),保证研究遵守道德标准并不会对主体或社会造成伤害。我们还讨论了现代研究和技术中出现的道德困境,例如基因工程,这引发了有关人类遗传编辑和生态系统潜在风险的问题,以及核融合研究,这引发了有关清洁能源对人类对人类和人类潜在风险和人类安全和环境安全的平衡之间的疑问。这项研究强调,尽管科学家专注于科学客观性,但仍有道德责任考虑其发现的社会影响。关键词:道德困境,科学研究,科学家的社会责任,道德监督。
《人道屠宰指南》强调了美国兽医协会的道德和专业承诺,即在尽可能的情况下,不会在屠宰前和屠宰过程中对有意识的动物造成不必要的痛苦、伤害或痛苦。“痛苦或压力大的死亡可能会掩盖或负面影响之前的一切。”5 从伦理角度评估养殖实践和屠宰方法时,仔细注意经验观察至关重要。美国兽医协会鼓励其成员和从业人员利用他们的科学知识、实践专业知识和合理的道德判断来保护和促进所有动物的健康和福利。因此,通过更多地与兽医专业和专业人士接触,可以改善食用动物的福利;不断发展基于科学的人道屠宰方法和动物福利方法;制定关于治疗多种类别的受伤、生病或流离失所动物的明确行业政策;对处理和屠宰动物的人员进行培训和问责;增加公众参与和教育,以提高动物护理和福利实践以及屠宰方法的透明度;以及协调地方、州和国家监管政策和监督机制与符合道德标准的护理标准。食品和纤维行业利益相关者之间的持续合作将有助于加强最佳实践,并改善动物福利和屠宰结果。
巴克莱是一家跨大西洋消费者和批发银行,拥有全球范围,在个人,公司和投资银行,信用卡和财富管理中提供产品和服务,在我们英国和美国的两个家庭市场中拥有强大的业务。拥有超过325年的历史和银行业专业知识,巴克莱在40多个国家 /地区运营,拥有约85,000名员工。巴克莱的移动,贷款,投资和保护全球客户和客户的资金。巴克莱欧洲以泛欧洲的基础以及德国的巴克莱卡业务在欧洲经营公司,投资和私人银行业务。巴克莱欧洲为我们的欧洲客户提供了全球特许经营权的实力和访问权限。巴克莱在欧洲大陆运营已有100多年的历史,目前在德国,法国,意大利,西班牙,葡萄牙,瑞典,荷兰和爱尔兰设有办事处,最近在卢森堡和比利时开设了办事处。巴克莱欧洲雇用约1,600名员工。它是由爱尔兰银行(BBI)及其在欧洲的分支机构的法律实体运营的。bbi受欧洲中央银行(ECB)和爱尔兰中央银行的监督,该机制是欧洲央行的单一监督机制。BBI是巴克莱银行PLC的全资子公司,也是我们巴克莱国际业务部的一部分。
• 建立对管理层遵守该法案责任的监督机制,并向ARC董事会(简称“董事会”)的政策与董事会治理委员会(简称“委员会”)进行相关披露。通过管理层与委员会全年每季度的讨论,就ARC的方针达成一致。• 成立了一个内部工作组,该工作组由执行领导团队成员以及供应链、法律和可持续发展职能部门的代表组成。执行领导集体负责治理、运营、供应链、可持续发展以及报告和披露。该工作组参加了培训和教育课程,聘请了法律顾问和外部主题咨询公司提供服务,以了解该法案的要求,并牵头审查政策、流程和计划,以确定存在的差距和机遇,从而应对公司供应链中现代奴隶制的风险。• 与委员会联合制定了现代奴隶制政策声明,以加强ARC预防和打击现代奴隶制的承诺。 • 对ARC的供应链进行了初步审查,以帮助确定使用现代奴隶制的潜在风险,并已由委员会进行了审查。• 起草了一份由公司供应商签署的确认书,其中概述了公司遵守该法案要求的期望,包括要求供应商自行制定尽职调查流程,以识别和降低现代奴隶制的风险,并确认其供应链中目前没有现代奴隶制的证据。ARC的架构、活动和供应链
摘要:在本文中,我区分了人工智能 (AI) 背景下可能出现的三种危害:个人危害、集体危害和社会危害。社会危害经常被忽视,但不能归结为前两种危害。此外,应对人工智能引起的个人和集体危害的机制并不总是适合应对社会危害。因此,政策制定者对当前人工智能法律框架的差距分析不仅存在不完整的风险,而且为弥补这些差距而提出的新立法提案也可能无法充分保护受到人工智能不利影响的社会利益。通过概念化人工智能的社会危害,我认为需要从个人角度转变视角,转向人工智能的监管方法,以解决其对整个社会的影响。借鉴专门保护社会利益的法律领域——环境法,我确定了欧盟政策制定者在人工智能背景下应考虑的三种“社会”机制。这些机制涉及 (1) 公共监督机制,以提高问责制,包括强制性影响评估,并提供提供社会反馈的机会; (2) 公共监测机制,以确保独立收集和传播有关人工智能社会影响的信息; (3) 引入具有社会维度的程序性权利,包括获取信息、获得司法公正和参与人工智能公共决策的权利,无论个人受到何种伤害。最后,在提出总结性意见之前,我会考虑欧盟委员会关于人工智能监管的新提案在多大程度上考虑到了这些机制。
• 大多数公司都愿意接受投资者就道德 AI 展开的宣传,但一小部分公司仍未做出回应或拒绝回应。自数字 CIC 成立以来,投资者试图接触的 44 家公司中,有 28 家(约三分之二)对他们的集体宣传做出了回应。另外 11 家公司仍未做出回应或明确拒绝加入对话,其中几家公司认为 AI 的风险并不重大或不适用于他们的业务。• 特定于 AI 的治理和监督机制仍然解释不清,也未得到充分理解。虽然公司已经启动了一系列董事会级别的委员会和小组委员会,全部或部分关注道德 AI,但高管层以下的团队在设计道德 AI 政策和实践方面的作用通常不太明确,他们向董事会上报问题的能力也不太明确。具有广泛代表性的外部咨询委员会很少见。• 公司不清楚如何监控他们购买和销售的人工智能工具。许多公司购买或订购第三方人工智能工具,而不是内部开发。生成式人工智能模型的传播及其迅速融入各种产品进一步助长了这一趋势。但数字 CIC 下的参与表明,无论是买方还是卖方,在向第三方提供模型和工具或自己采购此类工具时,都没有明确和一致地概述他们应用了哪些尽职调查和监控。
目前,算法的广泛应用是对模糊概念(如优点)进行正式和定量的衡量,以便做出决策。当人们为了获得有利的决策结果而对这类评估做出战略性回应时,他们的行为可能会受到道德判断。他们可能被描述为“玩弄系统”或“作弊”,或者(在其他情况下)投入“诚实的努力”或“改进”。关于战略行为的机器学习文献试图通过强调决策主体为获得更有利的评估而付出的努力来描述这些动态——一些研究提供了预防或防止此类操纵的方法,一些研究将“玩弄”与“改进”行为区分开来,而另一些研究则旨在衡量分类系统的努力负担或不同影响。我们从不同的出发点开始:评估本身的设计可以理解为促进评估者的目标,而这些目标可能与更广泛的社会目标不一致。为了阐明评估代表一种战略互动的观点,在这种互动中,评估者和评估对象都是出于自身利益,我们提出了一个模型,该模型使用三个相互作用的主体来表示评估过程:决策主体、评估者和社会,代表一套价值观和监督机制。我们强调了我们的模型对一系列社会系统的适用性,在这些系统中,一两个参与者策略性地破坏其他参与者的利益以促进自己的利益。将评估者视为战略参与者使我们能够重新审视决策主体,关注评估制度设计所依据的动机。在实践中,战略行为的道德地位往往取决于评估的道德地位以及引发这种行为的动机。我们将我们的框架应用于各种扩展示例并讨论道德含义。
1.欧洲人工智能 (AI) 政策环境必须确保法律确定性,同时提供足够动态和灵活的生态系统,以适应技术的不断发展。一个平衡的生态系统是支持技术发展同时保障其使用的生态系统,一个释放私人投资并保持资本流动的生态系统,一个使欧盟汽车行业及其供应链能够保持与全球参与者的竞争力的生态系统。欧洲汽车制造商协会 (ACEA) 认为,对人工智能采取行业性和轻触式的方法将是解决汽车行业特殊性以及汽车产品开发、测试、生产和投放市场方式的唯一可行选择。2.作为第一步,在引入横向要求之前,欧盟政策制定者应考虑在哪些方面可以使用汽车行业现有的认证要求和监管框架,以促进技术创新同时保护社会。在欧盟层面,已经对乘用车和商用车实施了严格的事前合格评定程序(类型批准法规 2018/858,自 2020 年 9 月 1 日起适用),以及针对两轮车和三轮车的其他行业法规。还有一系列严格的事后监督机制(例如生产一致性、在用合规性、市场监督和召回等)。在国际层面(联合国欧洲经济委员会),最近已通过立法,目前正在起草更多立法来解决围绕自动驾驶的各种问题。这些现有框架应首先通过实用指南完成。这将以行为准则、最佳实践、标准的形式提供基准,以帮助制造商在研究、开发和部署此类技术创新时保持合规性。立法差距只能事后确定。根据可证明的证据,如果存在法律漏洞,则应将新的潜在 AI 要求纳入现有框架。不同工作流(欧盟委员会的 CNECT 总司和 GROW 总司、UN-ECE WP29/1)之间的协调/同步是避免监管框架/认证和合规要求重叠和冲突的关键。
摘要:本文研究了津巴布韦的中国人工智能(AI)监视技术的发展和部署,该技术通过algorith-Mic Coloniality的镜头进行了研究。特别关注面部识别技术,这项研究主要取决于Mohamed等人开发的概念。(2020)建立一种新颖的分析方法。它可以通过通过半结构化访谈和津巴布韦专家和办公桌研究进行的半结构化访谈和调查来追踪算法压迫,算法典范和算法剥夺的问题。该研究表明,在津巴布韦采用中国AI监视技术是由执政党使用压迫性面部识别系统巩固政治权力的目标所驱动的。这项技术加强了压制系统,导致了包括Zanu-PF成员在内的不同社会群体的从属。从算法压迫转变为剥削时,随着中国综合党与津巴布韦政府达成不透明的协议,因此出现了道德问题,从而导致非法转移和滥用公民数据为自己的利益。生物识别数据的获取和提取复制了殖民剥削的历史模式,将津巴布韦视为中国技术进步的测试基础。劳动剥削会恶化,因为津巴布韦工人面临低工资,长时间和有限的代理机构。不足的法律政策和监督机制进一步加剧了局势。审查与算法剥夺有关的政策,本文提出了以下发现,即中国人工智能技术的进口阻碍了蓬勃发展的国内AI行业的发展,从而加深了津巴布韦对中国的依赖。通过采用算法殖民地的概念,本文对津巴布韦的中国AI AI监视技术相关的风险,动力动力和不平等进行了全面分析。最终,它强调了保护和道德AI发展和部署的重要性,以保护个人权利,并致力于纠正现有的不平等现象。
• 承诺尽快根据本指南审查您当前的计划, • 确保您的计划的设计和运行(包括使用任何第三方服务提供商)符合所有法律要求,并包括严格的隐私和透明度保障和控制, • 进行全面的隐私影响评估 (PIA),公开提供 PIA 报告或其摘要,并根据需要进行其他风险评估,例如安全、人权和算法影响评估,并确保这些评估与您的 PIA 相结合或协调,与受影响的社区进行有意义的公开协商,并确保他们考虑边缘化社区的隐私和公平问题,包括那些受到系统性歧视和过度警务做法不成比例影响的社区, • 从一开始就限制您的面部识别嫌疑人照片数据库计划的目的,专注于生成调查线索,以识别被合理怀疑犯有严重罪行的个人,并确保这一目的随着时间的推移而保持,并符合适用法律和合理性、必要性和相称性的隐私原则, • 在实施面部识别嫌疑人照片数据库计划之前,此后每年一次,审查您的逮捕记录政策和保留时间表,并清除您的嫌犯照片数据库中反映或可能促进过度、歧视或非法警察行为的记录,• 制定并遵循明确的标准以确保探测图像的最低照片质量,明确的规则和流程以保留和安全销毁,以及适当的监督机制以定期确认合规性,• 采取措施测试整个 FR 系统性能中的偏见和不准确性,制定并遵循透明的人工审查和准确性控制程序,并记录所有评估结果,• 确保您拥有明确且公开的访问、更正和删除权利政策和程序,以及• 在警察服务委员会和警察服务的网站上发布有关您的计划的最新、随时可用、通俗易懂的信息,以促进持续的透明度。IPC 敦促委员会和服务部门在您根据该政策完成对多伦多人脸识别嫌犯照片数据库计划的审查之前考虑并遵循 IPC 的指导。此外,我们注意到安大略省人权