指南机构目前在经营高等教育机构的持续业务实践中使用各种形式的人工智能 (AI)。为了生成发送给南方学校协会学院委员会 (SACSCOC) 的材料,机构可能会使用 AI 工具(包括生成 AI)收集、分析或总结文档和数据。但是,使用 AI 工具准备提交给 SACSCOC 的机构材料存在一些风险。制定本指南是为了确保 SACSCOC 提交、处理和审查的机构报告和材料的机密性、完整性、安全性和真实性,以确保审查和认证过程的公平公正结果。根据本文档的指南,熟悉生成 AI 模型概念和约束的用户应在认证中使用生成 AI。用户应该对模型提示的最佳实践、大型语言模型 (LLM) 系统的功能和缺陷有深入的了解,并熟悉 AI 平台提供商提供的任何描述平台最佳用途的指导。认证流程的价值 认证评审是机构回顾并反思其在完成使命方面是否成功的机会。机构通常会利用这些校园对话来促进跨职能领域的关系、支持透明度和问责制,并促进参与该过程的人员的专业发展。过度依赖生成式人工智能来编写有关机构的叙述可能会限制机构和同行评审讨论每个机构成功案例的价值,并降低该过程对促进持续改进的好处。 安全性、完整性和保密性:提交给 SACSCOC 的报告可能包含敏感信息,例如财务细节或战略计划,不打算公开披露。将这些文件提交给外部人工智能平台可能会有泄露机密的风险,因为这些平台可能缺乏足够的安全措施,导致未经授权的访问和数据泄露。人工智能平台还可能使用任何上传的材料(包括机构或学生数据、报告、图像、音频和视频)进行模型训练,这可能导致私人、机密、个人身份信息 (PII) 或专有信息集成到全球使用的人工智能模型中。尽管这种情况很少见,而且依赖于人工智能平台,但模型可以在某些特定情况下逐字复制这些信息。
主要关键词