如果 RAI 系统的用户或其他人(例如黑客)故意造成伤害,那么确定“犯罪心理”并追究刑事责任与现行法律下的做法应该没有太大区别。只要确保相关法律足够广泛,能够涵盖所涉故意行为类型,似乎没有必要进行全面改革来处理这些情况。
现代法律体系中的刑事责任概念以代理概念为基础,其中包括自主性、意向性和个人责任等概念。然而,随着技术的不断进步以及人工智能在我们日常生活中的使用日益增多,重要的任务被委托给人工智能驱动的系统。随着人工智能实体从经验中学习,它们会获取更多数据并提高编写自己算法的能力。因此,人工智能将逐渐独立于人类运行。人工智能和复杂的机器人越“聪明”,它们就越有可能对冲动做出反应。因此,我们逐渐使用代理而不是工具来处理问题,因此,不小心部署的先进人工智能系统将成为未来担忧的根源,因为人工智能系统已经自主地从事了对人类而言被视为非法的活动。因此,可能没有人应该为它们的行为的负面影响负责——尤其是当人们考虑到一台自学机器时。由于发现了问责漏洞,本论文探讨了将犯罪心理(犯罪心理)归咎于人工智能实体(特别是机器人等自主系统)的可行性。除了作为刑事责任的先决条件之外,承担责任的能力在现代刑法下也至关重要。然而,人工智能实体不具备人格——因为它们是机器,缺乏意识——因此,它们不能承担刑事责任。此外,考虑到人工智能实体可以犯罪,刑法是否可以包容自主机器行为的问题也随之而来。这个问题过于复杂,因为我们处理的是我们无法正确理解的算法,因此本论文将需要从机器角度与哲学方法相结合进行分析。通过假设人工智能实体具有自己的意识程度,将它们视为有罪心理持有者的可能性使未来变得不可想象。