Loading...
机构名称:
¥ 1.0

摘要 负责任的人工智能指南要求工程师考虑他们的系统可能造​​成的危害。然而,当代人工智能系统是通过组合许多预先存在的软件模块构建的,这些模块经过许多人之手才能成为成品或服务。这如何影响负责任的人工智能实践?在对来自工业界、开源界和学术界的 27 名人工智能工程师的采访中,我们的参与者通常认为负责任的人工智能指南中提出的问题不属于他们的机构、能力或责任范围。我们使用 Suchman 的“定位问责制”来展示负责任的人工智能劳动力目前是如何组织的,并探索如何以不同的方式进行。我们确定了跨领域的社会逻辑,例如模块化、规模、声誉和客户导向,这些逻辑决定了哪些负责任的人工智能行动确实发生,哪些行动被委托给低级员工或被认为是想象中的“供应链”中的下一个或上一个人的工作。我们认为,当前负责任的人工智能干预措施,例如假设拥有全景知识和系统控制的道德检查表和指南,可以通过采取定位问责制方法来改进,认识到供应链内外关系和义务可能交织在一起的地方。

“人工智能供应链”中的责任错位

“人工智能供应链”中的责任错位PDF文件第1页

“人工智能供应链”中的责任错位PDF文件第2页

“人工智能供应链”中的责任错位PDF文件第3页

“人工智能供应链”中的责任错位PDF文件第4页

“人工智能供应链”中的责任错位PDF文件第5页

相关文件推荐