基于人工智能(AI)的技术、机器学习和认知系统在社会经济和技术转型中发挥了非常积极的作用。对于工业价值链和国际企业来说,这意味着结构性变革是必要的,因为这些机器可以学习和应用新信息进行预测、处理和与人互动。人工智能(AI)是一门科学,它使用足够强大的技术、策略和数学模型来解决复杂的实际问题。由于它不可避免地会在未来取得进一步的进步,因此存在相当大的安全和道德问题。创造一个对人类友好的人工智能环境,反之亦然,可能是人类和机器发现一套共同价值观的解决方案。在此背景下,本研究的目标是调查人工智能的新兴趋势(它给社会带来的好处)、来自道德算法、学习或预设理想的道德挑战,以及解决人工智能和人工智能安全的道德问题和不当行为。本文将讨论人工智能对投资者和金融服务的影响。本文将探讨解决金融领域潜在不道德问题的挑战和可能的替代方案,并提出新的人工智能治理机制的必要性,以保护资本市场的效率,以及金融当局在监管和监控金融领域人工智能大规模扩张方面的作用。 关键词
本文为日益增多的人工智能和可持续性文献做出了贡献。这些文献大部分是关于人工智能与人类文明可持续性及其环境基础的关系;其中包括 Nishant 等人的评论。[3] 和 Liao 和 Wang [4],人工智能的环境政治 [5],人工智能与系统性风险和可持续性的关系 [6],人工智能系统的环境足迹 [7],以及人工智能在实现可持续发展目标中的作用 [8-10]。一些文献侧重于人工智能系统本身的可持续性 [11],包括消费者自主权 [12]、全球健康计划 [13]、某些经济机制 [14] 和决策应用 [15]。此外,还有一个更广泛的计算可持续性领域,它应用计算机科学方法来促进环境和社会可持续性 [16-18]。总体而言,有关人工智能和可持续性的文献提供了各种重要贡献,但对可持续性伦理的讨论有限。
社会对人工智能 (AI) 和 AI 系统的依赖日益增加,这要求中高层管理的软件工程 (SE) 主管采取更实用的方法来提高他们在实施 AI 伦理方面的参与度,将道德要求作为其管理实践的一部分。然而,研究表明,在 SE 管理中实施道德要求的大部分工作主要集中在技术开发上,对中高层管理的研究很少。我们通过采访十位芬兰中高层管理的 SE 主管来调查这一点,以了解他们如何考虑和实施道德要求。我们使用欧盟 (EU) 可信 AI 道德指南中的道德要求作为道德要求的参考,并使用敏捷投资组合管理框架来分析实施情况。我们的研究结果表明,隐私和数据治理的道德要求通常被视为法律要求,而没有确定其他道德要求的考虑因素。研究结果还表明,将道德要求视为技术稳健性和安全性是可行的,可以将实施视为风险要求,将社会和环境福祉视为可持续性要求。我们研究了一种使用采用敏捷投资组合管理框架的道德风险要求堆栈来实施道德要求的实用方法。
摘要 对人工智能伦理感兴趣的研究人员、从业者和政策制定者需要更多综合方法来研究和干预多种背景和活动规模的人工智能系统。本文将人工智能价值链作为一个满足这一需求的综合概念提出。为了更清楚地理论化人工智能价值链并在概念上将其与供应链区分开来,我们从战略管理、服务科学、经济地理、行业、政府和应用研究文献中回顾了价值链和人工智能价值链的理论。然后,我们对 67 个来源样本进行了综合审查,这些来源涵盖了人工智能价值链中涉及的道德问题。基于我们的综合审查结果,我们建议研究人员、从业者和政策制定者可以采取的三个未来方向,以推动整个人工智能价值链中更多的道德实践。我们敦促人工智能伦理研究人员和从业者转向价值链视角,将参与者置于背景中,考虑共同创建人工智能系统所涉及的多种资源,并整合跨背景和规模的更广泛的道德问题。
社会对人工智能 (AI) 和人工智能系统的依赖日益增加,这要求中高层管理的软件工程 (SE) 主管采取更务实的方法,通过将道德要求作为管理实践的一部分,提高他们在实施人工智能伦理方面的参与度。然而,研究表明,在 SE 管理中实施道德要求的大部分工作主要集中在技术开发上,对中高层管理的研究很少。我们通过采访十名芬兰中高层管理的 SE 主管来调查这一点,以了解他们如何考虑和实施道德要求。我们使用欧盟 (EU) 可信人工智能可信道德指南中的道德要求作为道德要求的参考,并使用敏捷投资组合管理框架来分析实施情况。我们的研究结果表明,隐私和数据治理的道德要求一般被视为法律要求,没有确定其他道德要求的考虑因素。研究结果还表明,将道德要求视为技术稳健性和安全性是可行的,在实施时将其视为风险要求,将社会和环境福祉视为可持续性要求。我们研究了使用采用敏捷投资组合管理框架的道德风险要求堆栈来实施道德要求的实用方法。
本指南使用的核心方法称为“设计伦理”。设计伦理的目的是将道德原则纳入开发过程,以便尽早解决道德问题并在研究活动中密切跟进。它明确确定了可以采取的具体任务,并且可以应用于任何开发方法(例如AGILE、V-Method 或 CRISP-DM)。但是,建议的方法应根据所提议的研究类型进行量身定制,同时牢记研究阶段和部署或实施阶段的道德风险可能有所不同。本指南中介绍的设计伦理方法提供了解决道德相关问题和展示道德合规性的额外工具。然而,采用设计伦理方法并不排除采取额外措施,以确保遵守所有主要的人工智能伦理原则和遵守欧盟法律框架,以保证完全遵守伦理并实施伦理要求。
越来越多的公司认为人工智能对其未来至关重要,然而,人们对该技术可能被滥用的担忧也在增加。在德勤最近的一项调查中,76% 的高管表示,他们预计人工智能将在三年内“大幅改变”他们的公司,而约三分之一的受访者将道德风险列为对该技术的三大担忧之一。最近,美国联邦贸易委员会表示越来越关注人工智能的公平性,其五名委员之一公开表示,该委员会应该扩大对歧视性人工智能的监督。