详细内容或原文请订阅后点击阅览
“如果你很无聊,那么知道自己很无聊是件好事。”
从聊天机器人那里寻求同理心的危险
来源:哈佛大学报很明显,人工智能正在改变一切,从我们的学习方式到我们的工作方式。目前尚不清楚的是,人工智能渗入日常生活如何改变我们在非数字世界中相互联系的方式。
在巴克中心本周的一次演讲中,小组成员讨论了 Claude 和 ChatGPT 等生成式 AI 聊天机器人的快速发展,以及对我们作为人类如何沟通和联系的伦理影响。
该活动由哈佛大学埃德蒙和莉莉萨夫拉道德中心教务主任埃里克·贝尔博姆 (Eric Beerbohm) 主持,启动了一系列研究人工智能如何改变文明和不文明分歧的系列活动。
专家组引用了一篇现在著名的《美国医学会杂志内科》文章,该文章中提到,患者认为人工智能对在线健康问题的回答比人类医生的回答更具同理心和准确度。
牛津大学赫特福德学院研究员、人工智能伦理研究所哲学副教授 Carissa Véliz 表示,训练人工智能聊天机器人使其看起来具有同理心以提高参与度,这对于科技公司来说可能是明智的商业决策,也可能受到用户的青睐,但这种持续的反射性验证是有代价的。
聊天机器人是“终极胡言乱语者,因为他们不关心任何事情,他们不跟踪真相,他们会说人类喜欢说的任何话。”她说,“同理心”作为一种设计功能,会让用户误以为聊天机器人理解他们,并把他们的最大利益放在心上,但事实并非如此。
“屏幕的另一边没有人,没有人关心你,”Véliz 说。 “我认为,即使称之为同理心也是一个错误。这是一种同理心的模拟,这是非常不同的。”
“屏幕的另一边没有人,没有人关心你。”
她说,聊天机器人的使用可能会产生扭曲的社会和认知影响,尤其是在儿童和青少年中,这一点令人担忧。
