Loading...
机构名称:
¥ 3.0

摘要 道德考量是我们社会的组成部分,它促进合作、帮助和为更大的利益而牺牲。人工智能的进步使得人们更需要研究涉及此类系统开发和实施的道德考量。将道德融入基于人工智能的程序对于防止隐私泄露和决策偏见等负面结果至关重要。人机协作 (HAIT) 带来了额外的挑战,因为为其提供依据的道德原则和道德理论尚未被机器计算;人类必须保持“知情”才能仲裁道德考量。为此,人类判断和决策模型(例如代理-行为-后果 (ADC) 模型)对于指导人工智能队友的道德指导功能以及阐明人类如何以及为何(不)信任机器至关重要。本文将研究 ADC 模型在 HAIT 环境中的应用,以及在人工智能环境中使用以人为中心的道德模型所带来的挑战。由 ADC 模型决策树赋能的 AI 算法既能灵活适应各种道德框架,又能适应不同的环境和背景情况,因此我们相信这项研究为将道德原则应用于 HAIT 的挑战提供了一种新颖的解决方案。关键词:人机协作 (HAIT)、代理-行为-后果 (ADC) 模型、护理机器人、道德、信任、人工智能 (AI)

人机协作中的伦理问题:原则与观点

人机协作中的伦理问题:原则与观点PDF文件第1页

人机协作中的伦理问题:原则与观点PDF文件第2页

人机协作中的伦理问题:原则与观点PDF文件第3页

人机协作中的伦理问题:原则与观点PDF文件第4页

人机协作中的伦理问题:原则与观点PDF文件第5页

相关文件推荐