详细内容或原文请订阅后点击阅览
通过故事教导机器人普世人类价值观
人工智能 (AI) 的快速发展引起了人们的担忧,即机器人可能会做出不道德的行为或可能做出伤害人类的决定。一些人主张禁止机器人研究,而另一些人则呼吁进行更多研究以了解人工智能的能力可能受到限制。但是,如果机器人没有关于如何成为人类的用户手册,它们将如何学习道德行为呢?
来源:Robogeek新闻频道(关于机器人技术的俄罗斯与世界新闻)人工智能 (AI) 的快速发展引起了人们的担忧,即机器人可能会做出不道德的行为或可能做出伤害人类的决定。一些人主张禁止机器人研究,而另一些人则呼吁进行更多研究以了解人工智能的能力可能受到限制。但是,如果机器人没有关于如何成为人类的用户手册,它们将如何学习道德行为呢?
佐治亚理工学院交互计算学院的研究人员 Mark Riedl 和 Brent Harrison 认为,这个问题的答案在于《堂吉诃德》的作品,该作品在亚利桑那州凤凰城的一次会议上发表(2 月 12 日至 17 日) )。堂吉诃德教机器人如何根据故事来评价价值观,如何识别可接受的事件顺序,以及如何理解人类社会中的成功行为。
“故事来自不同的文化,通过寓言、小说和其他文学作品中正确和错误行为的例子,教孩子们如何在社会中行事,”娱乐情报实验室助理教授兼主任里德尔说。 “我们相信,理解故事将有助于消除机器人的不当行为,并有助于做出不伤害人的选择,同时仍能让他实现预期目标。”
《堂吉诃德》是一种通过对适合社会的行为进行奖励来将人工智能目标与人类价值观结合起来的技术。该技术建立在里德尔之前的研究“山鲁佐德系统”的基础上,该系统展示了人工智能如何利用互联网上的故事来组装正确的动作序列。
唐吉诃德技术更适合目标有限、需要与人互动才能实现目标的机器人,而且它也是人工智能一般道德推理的原始第一步,Riedl 说。