人工智能 (AI) 正在通过改善患者治疗效果、降低成本和提高医疗专业人员的效率来彻底改变医疗保健。这篇小型评论探讨了人工智能在医疗保健领域的各种应用,包括疾病诊断、个性化治疗计划和患者生存率预测。机器学习 (ML)、深度学习、自然语言处理 (NLP) 和机器人流程自动化 (RPA) 等人工智能技术正成为现代医疗保健实践不可或缺的一部分。这些技术通过分析医学图像和患者数据,实现早期疾病检测,特别是在癌症等病例中,从而带来更有效和个性化的治疗策略。此外,人工智能可以通过分析电子健康记录中的大量数据集来预测患者治疗效果,提供有价值的见解,为临床决策提供参考。然而,人工智能在医疗保健领域的整合也带来了重大的道德挑战。需要解决数据隐私、算法偏见、缺乏透明度以及健康不平等加剧的可能性等问题。世界卫生组织 (WHO) 提供了强调人工智能道德使用的指导方针,强调了设计尊重人权和促进公平的人工智能系统的重要性。随着人工智能的不断发展,确保负责任和透明地使用它以最大限度地发挥效益和降低风险至关重要。这篇评论强调了人工智能在医疗保健领域的变革潜力,同时呼吁谨慎考虑道德问题,以确保以增强患者护理和维护道德标准的方式实施人工智能技术。
1.1 会计专业和道德标准委员会有限公司(APESB)发布了 APES 110 专业会计师道德规范(包括独立性标准)(本规范)。本规范自 2020 年 1 月 1 日起生效,并取代 APES 110 专业会计师道德规范(于 2010 年 12 月发布,随后于 2011 年 12 月、2013 年 5 月、2013 年 11 月、2017 年 5 月和 2018 年 4 月修订)。允许提前采用本规范。与关键审计合伙人轮换、第 4B 部分的修订、会员应扮演的角色和应有的态度的规定、业务质量审阅人员和其他适当审阅人员的客观性、费用相关规定、质量管理相关的一致修订、非鉴证服务规定、业务团队和集团审计定义的修订、上市实体、公开交易实体和公共利益实体的定义以及技术相关修订有关的过渡规定适用,具体请参见第 68 页的各个过渡规定。
当前的研究启动了关于音乐行业中人工智能(AI)的道德意义的讨论,分析了OECD AI原则框架内的九种道德陈述。该研究越来越强调这些准则的透明度,以人为中心的价值观,公平性和隐私性。虽然透明度认为对于促进对AI驱动的音乐系统的信任至关重要,但人类价值观的保存以及人类和AI生成的作品之间的区别是主要考虑因素。本文重点介绍了解决音乐行业中生成AI系统对环境影响的差距。结论要求进行持续的研究和对话来应对新兴挑战,强调多方利益相关者的协作,并告知公众讨论,以导致AI的变革性潜力,同时维护音乐创作中的道德价值观。
背景:使用社交媒体传播卫生保健信息的情况已经变得越来越普遍,从而使人工智能(AI)和机器学习在此过程中的不断扩展既重要又不可避免。这一发展引起了许多道德问题。本研究探讨了在社交媒体平台(SMP)上的医疗保健信息中,AI和机器学习的道德使用。它从公平,问责制,透明度和道德(命运)的角度进行了严格的研究,强调了确保其负责任应用的计算和方法论方法。目的:本研究旨在识别,比较和综合现有的解决方案,以解决SMPS医疗保健中AI应用程序中命运组成部分的现有解决方案。通过对各种计划中使用的计算方法,方法和评估指标进行深入探索,我们试图阐明当前的艺术状态并确定现有的差距。此外,我们评估了支持每个确定解决方案的证据的强度,并讨论了我们发现对未来研究和实践的含义。这样做,我们通过强调需要进一步探索和创新的领域为该领域做出了独特的贡献。方法:我们的研究方法涉及PubMed,Web of Science和Google Scholar的全面文献搜索。我们使用特定过滤器使用战略搜索来确定自2012年以来发表的相关研究论文,重点介绍了不同文献集的交集和结合。纳入标准集中在研究中主要解决有关SMP的医疗保健讨论中的命运的研究;那些提出经验结果的人;以及涵盖定义,计算方法,方法和评估指标。结果:我们的发现表明了命运原则的细微崩溃,在适用于美国医学信息学协会道德准则的情况下使它们保持一致。通过将这些原则分为专门的部分,我们详细介绍了针对SMP上AI驱动的医疗保健命运的特定计算方法和概念方法。这种细分有助于更深入地了解命运原则之间的复杂关系,并强调了其应用中遇到的实际挑战。它强调了我们的研究对SMP的医疗保健道德AI论述的开创性贡献,强调了复杂的相互作用以及有效实施这些原则所面临的局限性。结论:尽管存在各种方法和指标来解决SMP的医疗保健中AI中的命运问题,但挑战仍然存在。这些方法的应用通常与其他道德考虑相交,有时会导致冲突。我们的评论强调了缺乏统一的,全面的解决方案,可以在该领域充分有效地整合命运原则。此差距需要仔细考虑部署现有方法所涉及的道德权衡,并强调了进行正在进行的研究的需求。
4.人工智能的使用必须符合冰岛艺术大学道德规范的所有道德标准,并遵守冰岛艺术大学内部关于使用他人知识产权的公认的学术惯例(校规第 19 条)(冰岛艺术大学道德规范第 2.7 条)。
对人工智能系统的担忧之一就是拥护“道德人工智能”,即阐明道德规范,然后强加法律要求,要求人工智能系统符合这些规范。但这会起作用吗?更准确地说,是否存在一种有效的程序,通过该程序,人工智能系统开发者或监管者可以提前确定人工智能系统一旦投入运行,是否会持续产生符合所需道德规范的输出?本文的答案是“不”。停机问题表明,没有一种算法可以可靠地为运行任何允许输入的所有人工智能系统做到这一点。可以决定某些运行某些输入的人工智能系统的合规性,但并非总是如此。当计算方法失败时,法律系统可以“填补空白”吗?本文表明,至少到目前为止,这种可能性并不积极。关于哪些法律规则应该评估人工智能系统的使用或滥用的责任,以及这些规则在具体案件中应该如何运作,存在一些问题。当前的法律提案本身可能不符合可解释性的道德规范。当与不受任何道德规范约束的人工智能超级智能相比时,无效性成为一个问题。
3.4. 道德规范................................................................................................................................ 42
自主系统的进步和实施与人们对其使用所产生的伦理问题日益关注不谋而合。随着自主性在需要考虑伦理问题的情境中填补了队友的角色,这一点变得越来越重要。随着人工智能队友 (AT) 进入这些角色,需要进行研究来探索 AT 的道德规范如何影响人类的信任。当前的研究提出了两项研究,探讨 AT 的道德或不道德行为如何影响对该队友的信任。在研究 1 中,参与者对 AT 建议违反或遵守一套伦理原则的行动场景做出了反应。结果表明,道德认知和信任会受到伦理违规行为的影响,但只有伦理规范取决于伦理违规的类型。研究 2 中的参与者在与犯有伦理违规行为并试图修复信任(道歉或否认)的模拟 AT 执行团队任务后完成了焦点小组访谈。焦点小组的回应表明,违反道德规范的行为恶化了人们对 AT 的看法并降低了信任度,但仍然可以信任它执行任务。AT 的道歉和否认并没有修复受损的信任。研究结果表明信任和道德规范之间存在微妙的关系,需要进一步研究违反道德规范后的信任修复策略。