详细内容或原文请订阅后点击阅览
使人工智能更安全、更道德的 23 条指导原则
随着人工智能进步的速度,数百名机器人专家和科学家认为有必要编制一份基本原则、优先事项和注意事项清单,在开发实用人工智能时必须考虑这些原则、优先事项和注意事项,以确保安全和道德合规性。
来源:Robogeek新闻频道(关于机器人技术的俄罗斯与世界新闻)随着人工智能进步的速度,数百名机器人专家和科学家认为有必要编制一份基本原则、优先事项和注意事项清单,在开发实用人工智能时必须考虑这些原则、优先事项和注意事项,以确保安全和道德合规性。
该清单是生命未来研究所的创意,该组织致力于帮助人类拥抱新技术,同时考虑新出现的风险。该研究所的著名成员包括斯蒂芬·霍金和埃隆·马斯克,以及一组研究人工智能、生物技术、核武器和气候变化对人类潜在威胁的专家。
生活的未来2017年有益人工智能(BAI)于1月举行,聚集了一批来自大学和公司的领先人工智能研究人员,讨论人工智能的未来和监管框架。会议开始前,对与会者对未来几年人工智能发展和管理优先事项的意见进行了调查。收到的答复成为讨论主题列表的基础。每个议题经过充分讨论并得到90%参与者的一致同意后,被纳入最终的议题清单。
创建人工智能的指导原则的完整列表可以被视为艾萨克·阿西莫夫著名的机器人三定律的扩展版本。所有 23 条原则分为三个领域:
也许最有趣和讨论的话题是:“人工智能应该考虑什么样的价值体系,人工智能应该具有什么样的法律和道德地位?”
会议上提出的一些议题已经在实践中得到考虑。从事 Google DeepMind 项目的研究人员现在正在讨论如何实现所谓的。如有必要,当机器人无法满足给定程序时,可以使用“红色大按钮”来干预机器人的行为。