详细内容或原文请订阅后点击阅览
英国的新的AI实施策略:《守则》上方的文化 div>
该方法基于两个基本原则:“人为因素”和“减少AI的隐藏风险”,这些原则可帮助组织识别和解决通常保留在幕后的问题。
来源:OSP网站大数据新闻英国政府推出了实施生成式人工智能的自愿框架,该框架将人为因素而不是技术方面放在首位。这种方法旨在通过关注员工行为、组织文化以及技术在日常工作中的实际应用,帮助组织更负责任、更有效地扩展人工智能技术。它基于两个核心原则——“人的因素”和“减少人工智能的隐藏风险”——帮助组织识别和解决与自动化信任度增加、用户批判性思维减少以及对人工智能采用的隐藏阻力相关的经常隐藏的问题。
该计划主要针对首席信息官、数字化转型主管和公司治理专家,他们必须确保人工智能的可扩展性而不失去人类控制。
新战略由公共和私人机构专家参与制定,将人工智能实施周期分为三个阶段。
1.采用:克服阻力,为AI测试创造安全的环境,建立员工信任。
2. 持续:持续学习、监控人工智能的使用、行为适应和流程重新设计。
3.优化:持续改进系统,消除偏见,防止过度依赖人工智能,识别影响决策的隐藏风险和无意偏见。
ASO 模型主要关注人,而不是技术问题。 Assist 的内部生成式人工智能工具已在英国 200 个部门和政府机构中使用。其实施率已达70%,并持续增长。
