1 独立电影制作人 关键词:动物福利、人工智能、道德 AI、保护、富有同情心的技术、道德研究实践 摘要 本文探讨了人工智能 (AI) 在通过改善福利和沟通提高动物保护生活质量方面的变革潜力。通过研究动物试验中的道德困境和动物交流方面的开创性研究,我们强调了人工智能在促进更人道和互联互通的世界中的作用。 介绍 当我们讨论如何改善地球上动物的生活质量时,1854 年西雅图酋长的演讲中最有说服力:“我在草原上看到了一千头腐烂的水牛,那是白人从路过的火车上射杀它们留下的。我是一个野人,不明白为什么冒烟的铁马会比我们为了活命而杀死的水牛更重要”。
这份开放获取荣誉课程论文由 UNI ScholarWorks 的学生作品免费提供给您,供您开放获取。它已被 UNI ScholarWorks 的授权管理员接受并纳入荣誉课程论文。如需更多信息,请联系 scholarworks@uni.edu 。
摘要 - 生成的AI正在迅速改变医学想象和文本分析,为增强诊断和个性化护理提供了巨大的潜力。但是,这种变革性技术提出了至关重要的道德,社会和法律问题。本文深入研究了这些复杂性,研究了在生成AI应用于医学成像和文本的上下文中的准确性,知情同意,数据隐私和算法限制。我们探讨了围绕责任和问责制的法律格局,强调了对强大的监管框架的需求。此外,我们剖析了算法挑战,包括数据偏见,模型限制和工作流集成。通过严格分析这些挑战并提出了负责任的解决方案,我们旨在促进道路图,以道德和负责任的生成AI在医疗保健中实施,以确保其变革潜力以最大的谨慎和精确的态度为人类服务。
人工智能背景下的意识本质:重新定义人与技术的关系 Izuchukwu Kizito Okoli* 和 Osita Gregory Nnajiofor* https://dx.doi.org/10.4314/ujah.v25i1.1 摘要 人工智能 (AI) 背景下的意识本质提出了一个需要分析和进一步探索的问题。本研究旨在通过研究意识与 AI 的交集(包括形而上学含义和考虑)来重新定义人与技术的关系。主要目标是在 AI 的背景下定义意识,评估 AI 表现出意识的潜力,研究对人类体验的形而上学含义,并探索伦理层面。研究结果表明,意识涉及自我意识、感知、意向性和主观体验。虽然 AI 可以实现高级认知能力,但高阶意识的存在仍然不确定,这引发了关于主观意识本质的形而上学问题。意识难题凸显了连接物理过程和主观体验的挑战,强调了形而上学考虑的必要性。本文还探讨了人工智能集成的伦理影响及其对人类体验的影响。建议包括进一步研究人工智能中的意识、
自由计划是一个国际影响力组织,旨在动员全球技术专家、学者、政策制定者和公民联盟,以建立更负责任的技术开发方法,包括更开放的互联网基础设施。自由计划基金会的学术创始合作伙伴是斯坦福大学、巴黎政治学院和乔治城大学。自由计划研究所的使命是通过支持及时、可行的数字技术和负责任的创新研究来加强道德治理。该研究所是技术专家、政策制定者、学术界、民间社会、企业家和治理专家的国际会议场所。这些跨学科合作伙伴以及来自公共和私营部门的领导者共同创建了我们设计、投资、部署和管理新技术的框架。自由计划还管理公共利益基础设施协议 DSNP,以实现公平的个人数据经济。
人类表观基因组,表观基因组编辑(EE)的抽象靶向修饰在拐角处。对于EE,使用类似于基因组编辑(GE)技术的技术。 在GE中,通过直接修改DNA来更改遗传信息,介入表观基因组中需要修改DNA的构型,例如,如何折叠。 这与基本序列('遗传代码')中的变化无关。 迄今为止,几乎没有关于EE的道德辩论,而有关GE的讨论是庞大的。 我们的文章通过将知识从科学转化为伦理,并将EE的风险与GE的风险进行比较,将EE介绍为生物伦理学。 我们首先(i)表明,关于EE的更广泛的道德辩论是应付的,提供了EE的科学背景,编译潜在用例并回顾了先前的辩论。 然后我们(ii)比较EE和GE,并提出新型基因技术风险的严重性取决于三个因素:(i)在体内选择与体内编辑方法,(ii)干预和干预窗口和(iii)目标疾病的时间。 此外,我们展示了为什么种系EE无效并拒绝强烈表观遗传决定论的位置。 我们得出的结论是,在风险方面,EE并不总是在道德上比GE更可取,并通过简要引入EE(III)的预防性应用新领域的道德挑战,以当前有关EE的道德辩论的下一步辩论的建议。对于EE,使用类似于基因组编辑(GE)技术的技术。在GE中,通过直接修改DNA来更改遗传信息,介入表观基因组中需要修改DNA的构型,例如,如何折叠。这与基本序列('遗传代码')中的变化无关。迄今为止,几乎没有关于EE的道德辩论,而有关GE的讨论是庞大的。我们的文章通过将知识从科学转化为伦理,并将EE的风险与GE的风险进行比较,将EE介绍为生物伦理学。我们首先(i)表明,关于EE的更广泛的道德辩论是应付的,提供了EE的科学背景,编译潜在用例并回顾了先前的辩论。然后我们(ii)比较EE和GE,并提出新型基因技术风险的严重性取决于三个因素:(i)在体内选择与体内编辑方法,(ii)干预和干预窗口和(iii)目标疾病的时间。此外,我们展示了为什么种系EE无效并拒绝强烈表观遗传决定论的位置。我们得出的结论是,在风险方面,EE并不总是在道德上比GE更可取,并通过简要引入EE(III)的预防性应用新领域的道德挑战,以当前有关EE的道德辩论的下一步辩论的建议。
1伦敦大学学院计算机科学系,英国伦敦大学学院2伦敦市2整体AI,伦敦W1D 3QH,英国3个思科系统,伦敦EC2M 7EB,英国4,英国4数学学院,爱丁堡大学,爱丁堡大学,爱丁堡大学,EH9 3FD,英国5,英国5号,英国5年,英国伦敦图书馆,UK 7 UK,UK 6 IUK 4 INK 6 INW1 2DB,UK 7 Inukire of UK,UK 7 In UK,UK,INDY,INDY,INDY of 0. 4 In IUNDY of 4 In INDY, Oxford, Oxford OX1 2JD, UK 8 Centre For Data Ethics and Innovation, London, UK 9 Institute of Management Studies, Goldsmiths, University of London, London SE14 6NW, UK 10 Department of Computing Science, University of Alberta, Edmonton, Alberta T6G 2H1, Canada 11 Royal Institution of Chartered Surveyors, London SW1P 3AD, UK 12 Ainstein AI, London, UK 13 School of Social Sciences and Technology, Technical University of Munich, 80539 Munich, Germany 14 St Pauls Chambers, Leeds LS1 5JF, UK 15 Resilience Partners, London W1G 8QE, UK 16 Columbia University, New York, NY 10027, USA 17 ManpowerGroup, Milwaukee, WI 53212, USA 18 University of Warwick, Coventry CV4 7AL, UK 19 London Stock Exchange, London, UK 20 UK HMRC,伦敦,英国21 VAITATEAI,伦敦,英国
摘要AI系统在儿童的范围,应用程序和服务中变得越来越普遍。对AI系统不受限制地部署的世界的关注,提出了有关这些技术的影响,管理和问责制的迫切问题。尽管最近对AI伦理学的努力已经融入了一系列高级伦理AI原则的共识,但与儿童问题的互动仍然是有限的,对于如何有效地将它们应用于儿童的实践中,知之甚少。这种观点首先绘制了当前的AI道德准则的全球景观,并分析了他们与儿童的相关性。然后,我们批判性地评估了当前AI伦理计划提出的策略和建议,从而确定将这种伦理AI原则转移到儿童实践中所面临的关键挑战。最后,我们暂时绘制了有关将伦理嵌入儿童的发展和治理中的一些建议。
人工智能(AI)正在彻底改变金融服务行业,为效率,创新和个性化服务提供无与伦比的机会。然而,随着其收益,金融服务中的AI引起了重大的法律和道德问题。本文探讨了围绕AI在金融服务中使用的法律责任和道德考虑因素,旨在提供有关如何解决这些挑战的见解。AI在金融服务中的法律责任围绕着针对AI相关的决策和行动的责任分配。随着AI系统变得更加自治,对谁应对AI错误,不当行为或监管违规的责任承担责任。本文研究了现有的法律框架,例如数据保护法,消费者保护法规和责任法,并评估其在解决AI相关问题方面的适当性。金融服务中AI实施的道德考虑是至关重要的,因为AI系统会影响个人的财务福祉和获得服务。算法偏见,透明度和公平等问题对于确保道德AI实践至关重要。本文讨论了道德准则和框架对金融服务中AI开发和部署的重要性,并强调了对透明度,问责制和公平性的需求。本文还研究了监管机构和行业标准在解决与金融服务中与AI相关的法律和道德挑战方面的作用。它为政策制定者,监管机构和行业利益相关者提出建议,以促进负责任的AI实践,包括制定明确的准则,增强的透明度措施以及问责制机制。总的来说,本文强调了金融服务行业中AI,法律问责制和道德考虑之间的复杂相互作用。通过应对这些挑战,利益相关者可以利用AI的全部潜力,同时确保以负责任和道德的方式部署它,从而使企业和消费者受益。