详细内容或原文请订阅后点击阅览
当Openai并不总是答案时:基于包装的AI代理背后的企业风险
数据隐私,合规性和信任差距在当今的AI代理集成中,当Openai并不总是答案时:基于包装的AI代理背后的企业风险首先出现在数据科学上。
来源:走向数据科学“等等……您是将日记条目发送到Openai吗?”
我的朋友向我展示她的感觉写时的第一件事,这是我在旧金山的一场黑客马拉松期间建造的AI驱动日记应用程序。
feel-write我耸了耸肩。
“这是一个以AI为主题的黑客马拉松,我必须快速建造一些东西。”
她没有错过任何节拍:
“当然。但是我如何信任您的建造?为什么不自助您自己的LLM?”
这阻止了我冷。
我为这个应用程序汇聚在一起而感到自豪。但是这个问题,以及紧随其后的问题,揭示了我以为对AI负责任地构建的所有知识。黑客马拉松法官也标记了它。
那一刻让我意识到使用AI构建时我们对信任的随便,尤其是使用敏感数据的工具。
我意识到更大的东西:
在与AI建立时,我们谈论的信任不足。
她的回答坚持了我。佐治亚州冯·明登(Georgia von Minden)是ACLU的数据科学家,在那里她与法律和民权环境中的个人身份信息紧密合作。我一直珍视她的见识,但是这次谈话的打击也不同。
所以我要求她更多地详细说明在这种情况下,信任到底意味着什么?特别是当AI系统处理个人数据时。
在这种情况下,信任到底意味着什么? 特别是当AI系统处理个人数据时。她告诉我:
“信任可能很难确定,但是数据治理是一个不错的起点。谁拥有数据,如何存储以及它用于所有物质的用途。十年前,我会有所不同。我会以不同的方式回答。但是,今天,庞大的计算能力和大规模的数据存储,大规模的推理是一个真正的途径和途径,可以及时地访问习惯。可识别的信息,法规和常识都表明需要在API呼叫中发送PII的需求不仅是有风险的 - 它也可能违反这些规则并使个人遭受伤害。”信任 AI代理 OpenAi