人工智能的现状:聊天机器人伴侣和我们隐私的未来

欢迎回到《人工智能现状》,这是《金融时报》和《麻省理工科技评论》之间的新合作。每个星期一,两家出版物的作者都会就重塑全球权力的生成式人工智能革命的一个方面进行辩论。在本周的对话中,《麻省理工科技评论》的专题报道和调查高级记者郭艾琳和《金融时报》科技记者梅丽莎……

来源:MIT Technology Review _人工智能

郭艾琳写道:

即使您自己没有人工智能朋友,您也可能认识有人工智能朋友的人。最近的一项研究发现,生成式人工智能的主要用途之一是陪伴:在Character.AI、Replika或Meta AI等平台上,人们可以创建个性化的聊天机器人,扮演理想的朋友、浪漫伴侣、父母、治疗师或他们可以想象的任何其他角色。

最近的研究

人们说这些关系发展得多么容易,真是太疯狂了。多项研究发现,人工智能聊天机器人的对话性越强、越像人类,我们就越有可能信任它并受到它的影响。这可能很危险,聊天机器人被指控促使一些人做出有害行为——包括一些极端的例子,自杀。

人们说起来有多容易 多个 研究 一些极端的例子,

一些州政府已经注意到并开始监管人工智能伴侣。纽约要求人工智能伴侣公司建立保障措施并报告自杀意念的表达,上个月加州通过了一项更详细的法案,要求人工智能伴侣公司保护儿童和其他弱势群体。

纽约 通过

但值得注意的是,法律未能解决的一个领域是用户隐私。

尽管事实上,人工智能伴侣比其他类型的生成人工智能更依赖于人们分享深层的个人信息——从他们的日常生活、内心的想法,以及他们可能不愿意向真人询问的问题。

毕竟,用户告诉他们的 AI 同伴的信息越多,机器人就越能保持他们的参与。这就是麻省理工学院研究人员罗伯特·马哈里和帕特·帕塔拉努塔蓬在我们去年发表的一篇专栏文章中所说的“令人上瘾的智能”,警告人工智能伴侣的开发者做出“深思熟虑的设计选择......以最大限度地提高用户参与度”。

称为