国际计算机工程技术杂志(IJCET)第16卷,第1期,Jan-Feb 2025,pp。862-880,文章ID:IJCET_16_01_069在线可在https://iaeme.com/home/issue/issue/ijcet?volume=16&issue=1 ISSN印刷:0976-6367; ISSN在线:0976-6375;期刊ID:5751-5249影响因子(2025):18.59(基于Google Scholar引用)doi:https://doi.org/10.34218/ijcet_16_01_069©iaeme Publication
摘要近年来,机器学习(ML)和人工智能(AI)模型已成为各种业务运营不可或缺的一部分,尤其是在人力资源(HR)系统中。这些模型主要用于在招聘,绩效评估和员工管理中自动化决策过程,从而提高效率和简化任务。然而,这些自动化系统的日益使用引起了人们对偏见的存在的重大关注,这可能导致歧视性实践。这样的偏见可能排除合格的候选人和减少机会,同时还为公司声誉带来了重大风险,并带来潜在的法律和道德后果。本文通过探索与人力资源相关的ML模型中偏见的根本原因并提出缓解措施的最佳实践来解决这些挑战。它在人力资源决策制定的背景下对公平概念和定义进行了彻底的研究,强调了基于所使用的特定模型和数据集选择适当缓解技术的复杂性质。通过对各种缓解策略的经验评估,该研究表明,没有任何一种方法能够完全满足所有公平指标,从而强调了准确性和公平性之间的固有权衡。这些发现为优化这些权衡提供了宝贵的见解,并为实现自动人力资源系统中更公平,公正的结果提供了可行的建议。此外,这项研究强调了进一步研究和讨论以提高ML模型中透明度和公平性的持续需求,从而有助于更公平的人力资源景观。
AI是最奇妙的技术领域之一,它为与多元化的地区提供了几个方面。AI的力量带来了许多悬而未决的道德困境,在其在独立决策制定方面的扩张过程中需要关注。伦理AI是AI中包含的全包宇宙,涵盖了偏见校正,公平性和责任机制的安装。AI系统中的偏见可以是一种有缺陷的算法的表现,因此可以区分算法。因此,可能要应用诸如数据预处理和公平算法之类的操作来解决该问题。在整个AI系统中都有一些自然的公平性,但是这种公平的结果应该是与每个人的每个人打交道,并以相同的条件对待,并且必须采取一种全面的方法来解决社会力量。道德AI的第三个关键方面是责任制,从某种意义上说,它要求清晰的框架来定义责任的内容,并为AI系统中的权力询问和遏制设置程序。它将回顾AI已经存在的道德挑战,并提供一个假设的模型,该模型将指导行业的利益相关者创建技术先进,道德上合理且对社会有益的AI系统。需要解决这些道德问题,以便根本没有道德问题,同时创建AI来提高我们的智力能力,并且不会损害我们的道德准则。完整的论文以更详细的方式详细阐述了这些问题。它对AI以及开发人员,政策制定者和用户的道德方面提供了详细的分析。
在私人国际法中浏览AI和自动决策系统的复杂景观,提出了挑战和机遇。本文探讨了AI技术在跨境法律流程中的集成,从而强调了它们提高效率和准确性的潜力。它解决了在司法和仲裁环境中使用AI的法律和道德意义,包括透明,问责制和偏见问题。通过检查案例研究和现有的法律框架,该研究确定了最佳实践,并提出了在私人国际法中负责部署AI的准则。该分析强调了对强大的监管机制的需求,以确保AI应用程序在日益相互联系的世界中维护正义与公平原则。最终,本研究旨在为建立一种连贯的法律方法做出贡献,该方法将技术创新与基本法律价值保持平衡。
NAB 与委员会于 2021 年结成的联盟旨在促进开发人权影响评估工具,帮助银行考虑和衡量人工智能系统对人权造成的风险。NAB 认识到,确保我们衡量人工智能活动对人权造成的风险并实施应对这些风险的策略符合银行及其客户的利益。该理念是提供开源工具作为银行开展自身人权影响评估的核心指导。
1.3 本指南应与个人数据保护委员会(“委员会”)的《PDPA 关键概念咨询指南》、《特定主题咨询指南》及其《基本匿名化指南》一并阅读。本指南为咨询性质,对委员会或任何其他方均不具有法律约束力,也不构成法律建议。本指南不会以任何方式修改或补充任何所引用法律的法律效力和解释,包括但不限于 PDPA 和根据 PDPA 颁布的任何附属法例。如有不一致,以 PDPA 和任何附属法例的规定为准。本指南不应被解释为限制或约束委员会对 PDPA 的管理和执行。
相关文献和行业出版社表明,基于人工智能(AI)的决策系统可能会偏向性别,这反过来影响个人和社会。信息系统(IS)领域已经认识到基于AI的结果及其影响的丰富贡献;但是,缺乏关于基于AI的决策系统中性别偏见的管理及其不利影响的研究。因此,基于AI的决策系统中对性别偏见的关注正在引起关注。,需要更好地了解促成因素和有效方法来减轻基于AI的决策系统中的性别偏见。因此,这项研究通过对现有文献进行系统文献综述(SLR),并为基于AI的决策系统中的性别偏见的管理提供了系统文献综述(SLR)。SLR结果表明,基于AI的决策系统中对性别偏见的研究尚未确定,强调了未来的巨大潜力是该领域的研究,正如本文所阐明的那样。基于这篇综述,我们将基于AI的决策系统中的性别偏见概念化为社会技术问题,并提出了一个理论框架,该框架提供了技术,组织和社会方法以及四个命题以及可能减轻偏见效应的四个主张。最后,本文考虑了关于组织背景下基于AI的决策系统中性别偏见的未来研究。
摘要 有一种方法可以通过实施人工智能技术来改变医疗管理。最新技术正在融入研究技术。它为专家提供了一种提供准确、一致和知识渊博的结果的方法。它动态地结合了与人工智能相关的系统所使用的责任和清晰度推理。这些调节中出现的主要问题包括问责制以及基于人工智能的系统所形成的明确概念。这些也从科学偏见中得到了提升。这些可以很好地调整,并且可以稳定地满足以系统的方式使社区受益的必要性。人工智能可用于医学分析中的大量有组织和无组织数据。这些技术包括不同的方法,例如支持向量机和一些其他网络,用于那些无组织数据。为此,必须使用一些人工智能工具。它将在大规模医学分析中有效,与详细计算和基于结果的有意义的分析相结合。该研究根据这些并发症实施了大数据与医疗保健的相应方法进行探索(Xafis 等人,2019 年)。探索在适当的标准方面展开。基于此,分析人员可以解释数据,以便正确、准确地传播和使用基于人工智能的系统进行医学分析。然而,人工智能在充当黑匣子方面发挥着重要作用,其特征以及数量、计算和技术将由专家适当调节。黑匣子医学将指出这一点。在这篇研究论文中,黑匣子如何处理需要执行的以患者为中心的医学。