详细内容或原文请订阅后点击阅览
即使是Openai首席执行官Sam Altman也认为您不应该信任AI治疗
Altman主张聊天机器人和用户之间的隐私保护。斯坦福大学的一项研究提供了避免泄露个人信息的其他理由。
来源:ZDNet | 机器人新闻治疗可能像是有限资源,尤其是最近。结果,许多人(尤其是年轻人)正在转向AI聊天机器人,包括Chatgpt和在诸如角色ai之类的平台上托管的聊天机器人,以模拟治疗体验。
尤其是年轻人 AI聊天机器人 chatgpt 字符.ai但是,这是一个好主意的隐私吗?甚至Chatgpt本身的首席执行官Sam Altman也有疑问。
上周,阿尔特曼(Altman)在接受PodCaster Theo von的采访时说,他了解对与AI Chatbots共享敏感的个人信息的担忧,并主张通过对这些医生,律师和人类治疗师的类似特权来保护用户对话。他回应了冯的担忧,他说他认为这是有道理的:“在您使用[AI]很多之前,真正想要隐私的清晰度,法律上的清晰度。”
面试另外:不良共鸣:AI代理如何编码灾难的方式
不良共鸣:AI代理如何编码灾难的方式目前,AI公司提供了一些开关设置,以使聊天机器人对话不受培训数据 - 有几种方法可以在Chatgpt中进行此操作。除非用户更改,否则默认设置将使用所有交互来训练AI模型。公司尚未进一步阐明用户在查询中与机器人共享的敏感信息,例如医疗测试结果或薪水信息,将不受聊天机器人稍后的吐痰或以其他方式泄露为数据。
在chatgpt但是,由于对OpenAI的法律压力,与用户隐私的关注相比,Altman的动机可能会更加了解。他的公司因侵犯版权而被纽约时报起诉,拒绝了作为诉讼的一部分进行和交出用户对话的法律请求。
(披露:CNET的母公司齐夫·戴维斯(Ziff Davis)在4月提起了针对OpenAI的诉讼,指控它侵犯了Ziff Davis在培训和操作其AI系统方面的版权。)
刚发布其AI行动计划 最近的一项研究 pi 研究