Loading...
机构名称:
¥ 1.0

对人工智能伦理的担忧比人工智能本身更古老。“人工智能”一词最早由麦卡锡及其同事于 1955 年使用(McCarthy et al.1955 )。然而,1920 年,恰佩克已经发表了他的科幻剧,其中遭受虐待的机器人反抗人类的暴政(Capek 2004 ),到 1942 年,阿西莫夫提出了他著名的三条“机器人定律”,即机器人不伤害人类、不伤害其他机器人、不伤害自己(Asimov 1950 )。在上个世纪的大部分时间里,当人工智能主要局限于研究实验室时,对人工智能伦理的担忧大多局限于未来主义小说和幻想作家。在本世纪,随着人工智能开始渗透到生活的几乎所有方面,对人工智能伦理的担忧也开始渗透到主流媒体。在本专栏中,我简要分析了关于人工智能的三大类伦理问题,然后强调了另一个尚未引起足够重视的问题。关于人工智能伦理的第一类担忧——我们称之为超级智能类——涉及对机器有朝一日可能变得比人类更聪明并损害人类利益的担忧。在这种担忧的极端情况下,人们担心人工智能代理可能会接管世界,然后奴役或消灭人类。仅举一个例子,Bostrom ( 2014 ) 想象了一个未来世界,其中超级智能机器人被要求制作回形针,机器人追求这一目标,直到它消耗掉地球上的所有资源,从而危及人类的生存。一些对超级智能机器的恐惧似乎源于对智能的机械“算法观点”,其中智能存在于代理的大脑中,而让机器超级智能则等待着主算法的发明。然而,智能一般是

回顾过去,展望未来:人类、伦理与 AI

回顾过去,展望未来:人类、伦理与 AIPDF文件第1页

回顾过去,展望未来:人类、伦理与 AIPDF文件第2页

回顾过去,展望未来:人类、伦理与 AIPDF文件第3页

相关文件推荐

2025 年
¥4.0
2024 年
¥3.0
2021 年
¥1.0
2020 年
¥4.0
2022 年
¥13.0
2024 年
¥1.0
2021 年
¥9.0
2024 年
¥1.0