• 数据敏感性和保护:企业内使用的 AI 系统将仅处理适合预期任务的数据。个人数据、专有业务数据和其他敏感信息仅在具有适当的法律依据和保护措施(例如匿名化或加密)的情况下使用。AI 工具必须遵守所有适用的数据保护法,包括 GDPR 和行业特定法规。• 风险评估:所有 AI 系统在实施前都必须经过风险评估。这包括评估系统处理的数据类型、识别潜在偏差以及确保遵守相关监管框架。根据 AI 系统对业务的影响,AI 系统将分为低风险、中风险或高风险。• 数据输入和使用治理:员工在将数据输入 AI 系统时必须遵循严格的准则。只有授权人员才能将个人、专有或敏感数据输入 AI 工具,并且在适用的情况下必须获得明确同意。数据必须准确、最新且符合道德规范,以确保 AI 系统生成可靠的输出。• 交付成果问责:用户有责任在将所有 AI 生成的输出纳入最终交付成果之前验证其准确性、适当性和合法性。虽然 AI 工具可以协助完成任务,但员工仍对最终工作产品负全部责任,确保其符合公司的标准和期望。• 透明度和披露:企业将披露何时使用 AI 技术生成内容或与客户互动。这包括在使用 AI 工具的面向公众的内容或客户服务互动中添加注释,确保与利益相关者的透明度和信任。
主要关键词