预防反社会机器人:通往人工智能同理心的途径
机构名称:
¥ 1.0

人工智能中的一致、情感和同理心 人工智能 (AI) 为我们推荐产品;组织媒体;驾驶飞机、火车和汽车;诊断疾病;为保险定价;回答消费者的问题;照顾老年人;提供治疗;并且日益主宰制造业、战争和股票市场。这一变化正以越来越快的速度发生 (1)。这些人工系统的行为并不总是符合人类的期望或判断。人工智能找到违反直觉的解决方案的能力可能会导致灾难性的漏洞。人工智能可能无法模拟其行为的影响和后果 (2),即“框架问题”。人们通常很难辨别人工智能是如何“解决”问题的,并且随着问题的规模和复杂性的增加,向人类直观地传达解决方案(可解释的人工智能,XAI)的难度也会增加 (3)。人工智能的目标和行为最好与其创造者的目标和行为保持一致(4、5)。当代研究一致性问题的研究人员强调,需要体现伤害和福祉等价值观(也称为价值规范),并避免过大的副作用和负面激励(也称为容错性)(2)。然而,目前的技术解决方案很少(2、5)。

预防反社会机器人:通往人工智能同理心的途径

预防反社会机器人:通往人工智能同理心的途径PDF文件第1页

预防反社会机器人:通往人工智能同理心的途径PDF文件第2页

预防反社会机器人:通往人工智能同理心的途径PDF文件第3页

预防反社会机器人:通往人工智能同理心的途径PDF文件第4页

预防反社会机器人:通往人工智能同理心的途径PDF文件第5页

相关文件推荐

人工智能途径
2023 年
¥1.0
机器人与人工智能
2021 年
¥2.0
人工智能和机器人
2023 年
¥1.0
人工智能和机器人
2020 年
¥2.0
人工智能与社会
2022 年
¥1.0
预防途径
2024 年
¥3.0
机器人与人工智能
2022 年
¥2.0
人工智能与社会
2022 年
¥1.0