2009 年 10 月,不满情绪在欧盟理事会中逐渐蔓延。在此前的几个月里,欧盟理事会努力制定欧洲在人工智能 (AI) 问题上的立场,该立场将坚定地反映欧盟对基本权利的承诺。然而,当成员国准备就此事得出结论时,显然无法达成共识。一个成员国——波兰——提出了反对意见,其重点是结论草案中提到的“性别平等”。波兰代表认为,由于“性别”一词并未出现在《欧盟基本权利宪章》中,因此没有必要在人工智能的背景下提及它。 其他理事会成员强烈反对,但他们无法劝阻波兰改变立场。最终,德国理事会主席国得出结论,达成共识的努力失败了。别无选择的情况下,它采纳了主席国的结论,这些结论不需要成员国的一致同意,只是表达了主席国对此事的立场。对于新兴人工智能政策格局的观察者来说,上述事件是一个奇怪的异常现象。直到最近,在高层找到共同点
Intersect,第 18 卷,第 1 期(2024) 基因组编辑的伦理与经济学 Srija Chaudhuri 都柏林上高中 摘要 体细胞改造和种系改造是可以对人体细胞进行的两种基因改造类型。体细胞改造已获得伦理批准,并正在以基因疗法的形式应用于医疗保健领域,治疗镰状细胞病等疾病。种系改造并未获得同样的批准,在某些国家的研究领域受到严格监管,多个国家完全禁止这种改造类型。种系编辑因不安全、不允许患者知情同意和提倡残疾歧视而受到批评。此外,如果种系编辑程序可用但并非每个人都能负担得起,那么患有遗传病可能成为经济状况较低的标志。无论如何,这种改造类型可以为患有无法治愈的遗传病的人提供一种方法来消除他们的后代可能遭受的痛苦。各国对生殖系编辑的统一监管,包括概述疾病治疗和性状增强之间的区别,对于避免通过司法套利滥用治疗至关重要。在这篇评论中,根据各国常见的高发单基因疾病数量和人均 GDP 对各国进行了分析,以确定哪些国家可能成为生殖系编辑利用的中心,用于临床测试和执行生殖系编辑程序的经济受益者。简介新的基因改造技术促成了新型医疗治疗的兴起。这些治疗包括修改体细胞(非生殖)和生殖细胞(生殖)人类细胞。虽然这些治疗方法的监管不同,并且仍然需要对其安全性和有效性进行测试,但使用基因改造作为治疗方法需要考虑的其他方面是改变人类基因或基因组是否合乎道德,以及各国基因改造监管的不一致将如何影响国际医疗保健行业。体细胞和生殖细胞基因改造可以进行两种类型的基因改造
4。遵守《守则》和适用的立法守则规定了道德原则,并解决了您在工作过程中可能会遇到的关键问题。由于代码是商业行为的概述,因此无法解决您可能面临的每种情况,法律要求或文化敏感性。遵循以下基本准则:履行职责时始终诚实,公正地行事
讨论负责人演讲:每周,两组3-4名学生将主持有关他们指定案件的讨论。学生团体将介绍20-25分钟,并监视讨论15-20分钟。案例研究材料将在画布上提供。此外,期望讨论负责人通过相关论文和/或新闻文章研究分配的案例。演示文稿应概述(i)背景信息,行为代码以及与提出的方案相关的政策(来自教科书); (ii)对场景提出的问题,想法和问题的描述; (iii)根据负责任的研究行为原则的解决方案; (iv)有关如何防止未来实践中的不当行为的见解。学生必须在演讲期间至少通过一种积极学习的形式吸引观众。
本文为填补这一空白做出了一些尝试。首先,分析了学术界对全球南方国家对人工智能的看法,同时将其与全球北方国家的看法区分开来。本文对其进行了批判性分析,得出了四个“E”,表示全球南方国家对人工智能发展的威胁感知,即:提取主义、排斥、民族中心主义和执法。然后,本文对全球南方国家九个民族国家制定的人工智能政策进行了范围界定审查,即:阿根廷、巴西、智利、印度、印度尼西亚、马来西亚、毛里求斯、泰国和卡塔尔,以确定道德趋同。还强调了它们在特定国家解释中的细微差别。本文最后深入探讨了印度在与不断发展的全球数字秩序有关的关键问题上领导全球南方国家的追求。报告认为,支持以印度为主导的以发展为中心的人工智能治理模式可能最符合全球南方国家的利益。
摘要。本章重点关注狭义人工智能而非一般人工智能的伦理问题。它为人工智能伦理的讨论提供了实践和哲学依据。它考虑了道德宪章,然后讨论了主要的道德问题:偏见、可解释性、失败责任、无害性、数据的道德使用、人工智能是否应该具有法人资格、对就业和社会的影响以及冒充人类的人工智能。介绍了个人保险中人工智能的案例研究。它为人工智能的监管提供了依据,并讨论了制定监管的挑战。它得出结论,人工智能的好处是如此宝贵,以至于必须管理道德风险,否则由于失去公众信任,这些好处可能会丧失。我们有理由感到乐观,尤其是公众对这些问题的认识、政府的参与以及私人和公共对伦理研究的投资额。
摘要:人类塑造了人工智能算法的行为。一种机制是这些系统通过被动观察人类行为和我们不断生成的数据而接受的训练。在一项包含一系列独裁者游戏的实验室实验中,我们让参与者的选择训练算法。因此,它们对智能系统的未来决策产生了外部性,从而影响了未来的参与者。我们测试了有关训练人工智能的信息如何影响人类行为的亲社会性和自私性。我们发现,让个人意识到他们的训练对后代福祉的影响会改变行为,但只有当个人承担未来算法选择伤害自己的风险时才会发生。只有在这种情况下,人工智能训练的外部性才会在当下引发更高比例的平等决策。关键词:人工智能、道德、亲社会性、世代、外部性 JEL 代码:C49、C91、D10、D62、D63、O33
本研究旨在探讨哲学框架内伦理与科学之间的关键关系,并特别强调在教育背景下理解科学的本质。该研究解决了有关道德如何影响和塑造科学知识在教育过程中的作用的基本问题。从哲学的角度研究了伦理和科学的概念,本研究对其相互联系和哲学意义进行了深入分析。伦理学在科学方面的重要性,尤其是在教育中,是确定为指导科学知识发展和利用的道德基础的主要目标。在这种情况下,研究人员采用了文献综述方法。该研究提出了将科学的本质理解为学生性格发展和对世界的理解的组成部分的努力。这些努力包括对科学知识中嵌入的伦理价值观进行批判性思考,并强调伦理学与形成世界观的融合。采用哲学方法,这项研究描述了伦理与科学之间关系的概念和实际含义,为整体思维提供了基础。这项研究的结论表明,将道德作为知识传播过程中的核心要素的教育方法和策略的发展。这项研究有望为增强子孙后代教育中的道德与科学之间的平衡做出积极贡献,促进了智力智力以及伦理和社会完整性。
在本文中,我们描述了人工智能工具包 AITK 的开发和评估。这个开源项目包含 Python 库和计算论文(Jupyter 笔记本),旨在让对人工智能背景了解甚少或完全没有的多样化受众与各种人工智能工具进行交互,更深入地探索它们的功能,可视化它们的结果,并更好地理解它们的伦理影响。这些笔记本已在多个机构的各种以负责任的人工智能为主题的人文课程中进行了试点。此外,我们还对 AITK 进行了可用性测试。我们的试点研究和可用性测试结果表明,AITK 易于导航,能够有效地帮助用户更好地理解人工智能。在人工智能快速创新的时代,我们的目标是让 AITK 为希望将人工智能主题纳入其课程的任何学科的教师以及任何渴望自己了解更多人工智能知识的人提供可访问的资源。
摘要 — 人工智能 (AI) 正在改变我们的日常生活,其应用领域包括医疗保健、太空探索、银行和金融。人工智能的快速发展引起了人们对人工智能技术对社会的潜在影响的日益关注,其后果在伦理上值得商榷。近年来,各国政府、国家和国际组织发布了多项道德原则。这些原则概述了指导人工智能道德发展、部署和治理的高级准则。然而,这些原则的抽象性、多样性和上下文依赖性使得它们难以实施和操作,导致原则与执行之间存在差距。最近的大多数研究分析和总结了现有的人工智能原则和指南,但它们没有提供关于原则实施差距以及如何缓解这些差距的发现。这些发现对于确保人工智能实施符合道德原则和价值观尤为重要。在本文中,我们对所有大洲的当前道德人工智能原则进行了背景和全球评估,旨在确定针对特定国家或适用于各个国家的潜在原则特征。接下来,我们将分析当前各国人工智能的准备程度和当前人工智能伦理原则的实施情况,以确定人工智能原则实施方面的差距及其原因。最后,我们提出了缓解原则实施差距的建议。