详细内容或原文请订阅后点击阅览
AI 同伴的阴暗面:给父母敲响警钟
佛罗里达州的一起悲剧事件引发了人们对人工智能伴侣应用及其对弱势青少年影响的严重担忧。
来源:营销人工智能研究所佛罗里达州的一个悲惨案件引发了人们对AI Companion应用程序及其对弱势青少年的影响的严重关注。
在令人心碎的事件转折中,一个少年在与公司角色的AI伴侣机器人建立了非常紧密的(甚至是亲密)的关系。
与AI伴侣bot的关系 字符.ai这是一个事件,可以为各地的父母提供明显的提醒:我们可能会忽略一些儿童的一些关键AI安全考虑。
为了理解父母需要知道的含义,我在人工智能节目的第121集中与营销AI Institute创始人兼首席执行官Paul Roetzer进行了交谈。
人工智能节目的第121集毁灭性的唤醒电话
涉及这一问题的案件涉及一名14岁的名叫Sewell Setzer的案件,他在对AI Chatbot上建立了深刻的情感依恋。该平台最近被Google收购,现在正面临诉讼。
这位少年已经花了几个月的时间与以权力的角色游戏为模型的聊天机器人进行密集的沟通,分享了他最深切的感觉和恐惧,最终讨论了自杀思想。他母亲的诉讼辩称,角色的“危险和未经测试的技术”使她的儿子在没有足够的保障的情况下在情感上依赖AI同伴。
这不是利基问题。 targin.ai每年达到数千万用户,其用户群的大部分年龄在18-24岁之间。 and targin.ai只是提供与现实AI同伴访问的众多站点和服务之一。
提出了一个问题:鉴于AI创新的突破步伐,父母如何跟上并确保他们的孩子保持安全,因为AI越来越渗透到学校和社交生活?
为父母介绍孩子的安全GPT
“我立即想,坚持,这是定制的GPT,”他说。
孩子的安全gpt父母