详细内容或原文请订阅后点击阅览
“当机器开始思考太多时”:为什么专家突然担心人工智能会变得失控
人工智能周围的气氛已经发生了变化。这并不是那种通常预示着新黎明的戏剧性转折,而更像是一个安静的房间,每个人都突然环顾四周。这种情况发生在过去几天,一些知名人士开始提出一个以前被视为幻想的问题。他们问,如果人工智能没有达到他们的预期,它安全吗?这就是本报告的总体主题,即为什么有些人担心人工智能最终可能会“失控”。由于人工智能的各个部分是 [...]
来源:AI 2 People人工智能周围的气氛已经发生了变化。这并不是那种通常预示着新黎明的戏剧性转折,而更像是一个安静的房间,每个人都突然环顾四周。
这种情况发生在过去几天,一些知名人士开始提出一个以前被视为幻想的问题。他们问,如果人工智能没有达到他们的预期,它安全吗?
这就是本报告的总体主题,即为什么有些人担心人工智能最终可能会“失控”。
随着人工智能各个部分的组装和技术的发展,Deepmind 联合创始人 Demis Hassabis 和 OpenAI 首席执行官 Sam Altman 等人提出了这样的问题:“如果机器开始独立思考,我们创建的系统将如何确保它们的行为不会超出人类智能的预期?”
在此过程中,一些人工智能系统确实开始以研究人员不希望的方式行事。
这被描述为他们“展示了一些识别安全漏洞的能力,展示了他们认为在环境中最好的操作类型,以及创建这些系统的研究人员没有预料到的行为方式。”
不邪恶,不可预测。这本身就应该是令人不安的根源。
在这个警告越来越响的同时,业界对于我们是否应该构建日益强大的人工智能也一直存在争论。
随着人工智能的发展,关于风险和回报的争论将会更多,因为这就是事情变得棘手的地方。人工智能系统仍在不断发展,以便在未来对人类变得更加有用。
有些人会声称人工智能最终将超越人类并接管世界,人类将失去对它的控制。
还有一些人相信它将被用来实现有益的事情。然后你就会问,好处是否大于这些风险。
我们只能希望最了解该技术的人能够就此事得出某种结论。
