Loading...
机构名称:
¥ 1.0

简介 信任是大多数(如果不是全部)成功的企业、计划和关系的核心。这一人类概念延伸到数字领域,人工智能 (AI) 解决方案在越来越多的日常任务中的应用,使可信 AI 模型的问题成为众人瞩目的焦点。为了确保生成式 AI 以安全、负责任的方式使用,并保持信任,信息通信媒体发展局 (IMDA) 和 AI Verify 基金会于 2023 年 10 月 31 日宣布了首个生成式 AI 评估沙盒 (Sandbox)。沙盒将汇集全球主要参与者,以建立生成式 AI 的测试和评估能力,并努力建立一种通用的标准方法来评估生成式 AI。沙盒使用新的评估目录草案,其中列出了大型语言模型 (LLM) 的通用基准方法和建议。在本次更新中,我们简要探讨了与生成式 AI 模型相关的风险、沙盒的关键方面以及 Rajah & Tann 如何帮助您成功解决与采用 AI 解决方案以满足业务需求相关的大量问题。当前对 LLM 的担忧 生成式 AI 是指学习所搜索数据的底层分布,然后从所学习的分布中生成新内容的 AI 模型。ChatGPT 是一个非常流行的生成式 AI 模型的示例。从时尚到医疗保健等各个行业都在使用生成式 AI。然而,我们对生成式 AI 风险的理解仍在不断发展。在讨论文件“生成式 AI:对信任和治理的影响”(“讨论文件”)中,IMDA 详细介绍了 LLM 的主要风险和危害,并为政府和企业的高级领导人提出了构建生态系统以可信和负责任地采用生成式 AI 的想法。讨论文件中强调的生成式 AI 带来的主要风险包括:

首个面向可信 AI 的生成式 AI 评估沙箱

首个面向可信 AI 的生成式 AI 评估沙箱PDF文件第1页

首个面向可信 AI 的生成式 AI 评估沙箱PDF文件第2页

首个面向可信 AI 的生成式 AI 评估沙箱PDF文件第3页

首个面向可信 AI 的生成式 AI 评估沙箱PDF文件第4页

首个面向可信 AI 的生成式 AI 评估沙箱PDF文件第5页

相关文件推荐

2024 年
¥1.0
2022 年
¥5.0
2013 年
¥1.0
2019 年
¥11.0
2023 年
¥2.0
2023 年
¥2.0
2024 年
¥1.0
2023 年
¥1.0