Loading...
机构名称:
¥ 3.0

摘要:随着人工智能 (AI) 在现代生活中蓬勃发展和传播,一个关键问题是,如何将人类纳入未来的人工智能?尽管人类参与了从构思、设计到实施的每个生产过程阶段,但现代人工智能仍因其“黑箱”特性而经常受到批评。有时,我们不知道内部到底发生了什么,也不知道某些结论是如何以及为什么得出的。未来的人工智能将面临许多其创造者无法预见的困境和道德问题,而不仅仅是那些常见的问题(例如,电车难题及其变体),而这些问题的解决方案无法硬编码,而且往往仍有待商榷。鉴于此类社会和道德困境的敏感性及其对整个人类社会的影响,当我们的人工智能做出“错误”选择时,我们需要了解它们是如何导致的,以便进行纠正并防止再次发生。在涉及人类生计(例如,健康、福祉、财务、法律)或做出重大个人或家庭决定的情况下尤其如此。要做到这一点,就需要打开人工智能的“黑匣子”;尤其是它们在人类世界中的行为、互动和适应,以及它们如何与这个世界上的其他人工智能互动。在本文中,我们主张将认知架构应用于道德人工智能。特别是,它们可能对人工智能的透明度、可解释性和可问责性做出贡献。我们需要了解我们的人工智能如何得到它们所做的解决方案,我们应该在更深层次上寻求这一点,从动机、态度、价值观等机器等价物的角度来理解。未来人工智能的道路漫长而曲折,但它可能比我们想象的更快到来。为了利用人工智能对人类和社会的积极潜在结果(并避免负面影响),我们首先需要更全面地了解人工智能,我们希望这同时也有助于更好地了解人类同行。

人工智能伦理的认知架构

人工智能伦理的认知架构PDF文件第1页

人工智能伦理的认知架构PDF文件第2页

人工智能伦理的认知架构PDF文件第3页

人工智能伦理的认知架构PDF文件第4页

人工智能伦理的认知架构PDF文件第5页