当Openai并不总是答案时:基于包装的AI代理背后的企业风险

数据隐私,合规性和信任差距在当今的AI代理集成中,当Openai并不总是答案时:基于包装的AI代理背后的企业风险首先出现在数据科学上。

来源:走向数据科学

“等等……您是将日记条目发送到Openai吗?”

我的朋友向我展示她的感觉写时的第一件事,这是我在旧金山的一场黑客马拉松期间建造的AI驱动日记应用程序。

feel-write

我耸了耸肩。

“这是一个以AI为主题的黑客马拉松,我必须快速建造一些东西。”

她没有错过任何节拍:

“当然。但是我如何信任您的建造?为什么不自助您自己的LLM?”

这阻止了我冷。

我为这个应用程序汇聚在一起而感到自豪。但是这个问题,以及紧随其后的问题,揭示了我以为对AI负责任地构建的所有知识。黑客马拉松法官也标记了它。

那一刻让我意识到使用AI构建时我们对信任的随便,尤其是使用敏感数据的工具。

我意识到更大的东西:

在与AI建立时,我们谈论的信任不足。

她的回答坚持了我。佐治亚州冯·明登(Georgia von Minden)是ACLU的数据科学家,在那里她与法律和民权环境中的个人身份信息紧密合作。我一直珍视她的见识,但是这次谈话的打击也不同。

所以我要求她更多地详细说明在这种情况下,信任到底意味着什么?特别是当AI系统处理个人数据时。

在这种情况下,信任到底意味着什么? 特别是当AI系统处理个人数据时。

她告诉我:

“信任可能很难确定,但是数据治理是一个不错的起点。谁拥有数据,如何存储以及它用于所有物质的用途。十年前,我会有所不同。我会以不同的方式回答。但是,今天,庞大的计算能力和大规模的数据存储,大规模的推理是一个真正的途径和途径,可以及时地访问习惯。可识别的信息,法规和常识都表明需要在API呼叫中发送PII的需求不仅是有风险的 - 它也可能违反这些规则并使个人遭受伤害。”
信任 AI代理 OpenAi