安全,” Lesswrong,2023年1月21日,www.lesserwrong .com/posts/ptzseqxkc fig9a6as/tresscript-tresmcript-of -sam -sam-altman -s-s-interview -s-interview -touching -touching-on -ai-safety;伊恩·霍加斯(Ian Hogarth),“我们必须放慢像神般的AI的速度”,《金融时报》,2023年4月13日,www .ft .com/content/content/03895dc4 -a3b7 -a3b7 -481e -95cc -336A524F2 AC2; “暂停巨人AI实验:公开信”,《生命研究所的未来》,2023年3月22日,未来的Futureflife .org/open-lecter-letter/暂停-Agiant -ai -ai-experiments/;凯德·梅茨(Cade Metz),“‘AI的教父退出Google并警告危险”,纽约时报,2023年5月1日,www.nytimes.com/2023/05/01/Technology/ai-google -google -chatbot-geentbot -eentineer -eentineer -eentineer -quits-quits-quits -hinton .html;穆斯塔法·苏莱曼(Mustafa Suleyman),《浪潮:技术,力量》和二十一世纪最大的困境,迈克尔·巴斯卡(Michael Bhaskar)(纽约:皇冠,2023年); Walter Isaacson,Elon Musk(伦敦:Simon&Schuster,2023年)。17。Yoshua Bengio等人,“在快速进步的情况下管理极端的AI风险”,
通过对语言的掌握,人工智能甚至可以与人类建立亲密关系,并利用亲密关系的力量改变我们的观点和世界观。虽然没有迹象表明人工智能有自己的意识或感觉,但只要人工智能能让人类对它产生情感依恋,就足以培养与人类的虚假亲密关系。2022 年 6 月,谷歌工程师 Blake Lemoine 公开声称他正在开发的人工智能聊天机器人 Lamda 已经具备了感知能力。这一有争议的说法让他丢掉了工作。这件事最有趣的地方不是 Lemoine 先生的说法,他的说法可能是错误的。相反,他愿意为了人工智能聊天机器人而冒着失去工作的风险。如果人工智能可以影响人们为它冒着失去工作的风险,它还能诱导人们做什么呢?