Loading...
机构名称:
¥ 1.0

[C27] Han Lin *,Jaemin Cho *,Abhay Zala和Mohit Bansal。“ CTRL-ADAPTER:一个有效且通用的框架,用于将各种控件适应任何扩散模型”。ICLR(口头)。 2025。 [project] [Paper] [代码]。 [C26] Zaid Khan,Elias Stengel-Eskin,Jaemin Cho和Mohit Bansal。 “ DataEnvgym:具有学生反馈的教师环境中的数据生成代理”。 ICLR(聚光灯)。 2025。 [project] [Paper] [排行榜] [代码]。 [C25] Jialu Li *,Jaemin Cho *,Yi-lin Sung,Jaehong Yoon和Mohit Bansal。 “ SELMA:学习和合并技能 - 特定文本对象专家与自动生成数据”。 神经。 2024。 [project] [Paper] [代码]。 [C24] Abhay Zala *,Jaemin Cho *,Han Lin,Jaehong Yoon和Mohit Bansal。 “ Envgen:通过LLM生成和适应环境以进行训练体现的代理人”。 Colm。 2024。 [project] [Paper] [代码]。 [C23] Abhay Zala,Han Lin,Jaemin Cho和Mohit Bansal。 “图表:通过LLM计划生成开放域的开放式平台图”。 Colm。 2024。 [project] [Paper] [代码]。 [C22] Han Lin,Abhay Zala,Jaemin Cho和Mohit Bansal。 “ VideodirectorGpt:通过LLM指导计划一致的多场景视频生成”。 Colm。 2024。 [project] [Paper] [代码]。 [C21] Heesoo Jang和Jaemin Cho。 “对大语言模型的偏见和危害的评估”。 2024。 [纸]。ICLR(口头)。2025。[project] [Paper] [代码]。[C26] Zaid Khan,Elias Stengel-Eskin,Jaemin Cho和Mohit Bansal。“ DataEnvgym:具有学生反馈的教师环境中的数据生成代理”。ICLR(聚光灯)。2025。[project] [Paper] [排行榜] [代码]。[C25] Jialu Li *,Jaemin Cho *,Yi-lin Sung,Jaehong Yoon和Mohit Bansal。“ SELMA:学习和合并技能 - 特定文本对象专家与自动生成数据”。神经。2024。[project] [Paper] [代码]。[C24] Abhay Zala *,Jaemin Cho *,Han Lin,Jaehong Yoon和Mohit Bansal。“ Envgen:通过LLM生成和适应环境以进行训练体现的代理人”。Colm。 2024。 [project] [Paper] [代码]。 [C23] Abhay Zala,Han Lin,Jaemin Cho和Mohit Bansal。 “图表:通过LLM计划生成开放域的开放式平台图”。 Colm。 2024。 [project] [Paper] [代码]。 [C22] Han Lin,Abhay Zala,Jaemin Cho和Mohit Bansal。 “ VideodirectorGpt:通过LLM指导计划一致的多场景视频生成”。 Colm。 2024。 [project] [Paper] [代码]。 [C21] Heesoo Jang和Jaemin Cho。 “对大语言模型的偏见和危害的评估”。 2024。 [纸]。Colm。2024。[project] [Paper] [代码]。[C23] Abhay Zala,Han Lin,Jaemin Cho和Mohit Bansal。“图表:通过LLM计划生成开放域的开放式平台图”。Colm。 2024。 [project] [Paper] [代码]。 [C22] Han Lin,Abhay Zala,Jaemin Cho和Mohit Bansal。 “ VideodirectorGpt:通过LLM指导计划一致的多场景视频生成”。 Colm。 2024。 [project] [Paper] [代码]。 [C21] Heesoo Jang和Jaemin Cho。 “对大语言模型的偏见和危害的评估”。 2024。 [纸]。Colm。2024。[project] [Paper] [代码]。[C22] Han Lin,Abhay Zala,Jaemin Cho和Mohit Bansal。“ VideodirectorGpt:通过LLM指导计划一致的多场景视频生成”。Colm。 2024。 [project] [Paper] [代码]。 [C21] Heesoo Jang和Jaemin Cho。 “对大语言模型的偏见和危害的评估”。 2024。 [纸]。Colm。2024。[project] [Paper] [代码]。[C21] Heesoo Jang和Jaemin Cho。“对大语言模型的偏见和危害的评估”。2024。[纸]。国际传播协会(ICA)(高级论文奖)。[C20] Yasumasa onoe,Sunayana Rane,Zachary Berger,Yonatan Bitton,Jaemin Cho,Roopal Garg,Alexander Ku,Zarana Parekh,Jordi Pontuset,Jordi Pont-Tuset,Garrett Tanzer,Su Wang和Jason Baldridge。“ docci:连接和对比图像的描述”。ECCV。 2024。 [Project] [Paper] [DataSet]。 [C19] David Wan,Jaemin Cho,Elias Stengel-Eskin和Mohit Bansal。 “对比区域指导:在没有训练的情况下改善视觉模型的接地”。 ECCV。 2024。 [project] [Paper] [代码]。 [C18] Qin Liu,Jaemin Cho,Mohit Bansal和Marc Niethammer。 “以低潜伏期,高质量和不同的提示来重新思考交互式图像分割”。 CVPR。 2024。 [project] [Paper] [代码]。 [C17] Jaemin Cho,Yushi Hu,Roopal Garg,Peter Anderson,Ranjay Krishna,Jason Baldridge,Mohit Bansal,Jordi Pont-Tuset和Su Wang。 “ Davidsonian场景图:在文本到图像生成的细粒度评估中提高可靠性”。 ICLR。 2024。 [project] [Paper] [代码]。 [C16] Jaemin Cho,Abhay Zala和Mohit Bansal。 “用于文本到图像生成和评估的视觉编程”。 神经。 2023。 [project] [Paper] [VPGEN代码] [VPEVAL代码]。 [C15] Shoubin Yu,Jaemin Cho,Prateek Yadav和Mohit Bansal。 “用于视频本地化和问题回答的自链图像模型”。 神经。 2023。ECCV。2024。[Project] [Paper] [DataSet]。[C19] David Wan,Jaemin Cho,Elias Stengel-Eskin和Mohit Bansal。“对比区域指导:在没有训练的情况下改善视觉模型的接地”。ECCV。 2024。 [project] [Paper] [代码]。 [C18] Qin Liu,Jaemin Cho,Mohit Bansal和Marc Niethammer。 “以低潜伏期,高质量和不同的提示来重新思考交互式图像分割”。 CVPR。 2024。 [project] [Paper] [代码]。 [C17] Jaemin Cho,Yushi Hu,Roopal Garg,Peter Anderson,Ranjay Krishna,Jason Baldridge,Mohit Bansal,Jordi Pont-Tuset和Su Wang。 “ Davidsonian场景图:在文本到图像生成的细粒度评估中提高可靠性”。 ICLR。 2024。 [project] [Paper] [代码]。 [C16] Jaemin Cho,Abhay Zala和Mohit Bansal。 “用于文本到图像生成和评估的视觉编程”。 神经。 2023。 [project] [Paper] [VPGEN代码] [VPEVAL代码]。 [C15] Shoubin Yu,Jaemin Cho,Prateek Yadav和Mohit Bansal。 “用于视频本地化和问题回答的自链图像模型”。 神经。 2023。ECCV。2024。[project] [Paper] [代码]。[C18] Qin Liu,Jaemin Cho,Mohit Bansal和Marc Niethammer。“以低潜伏期,高质量和不同的提示来重新思考交互式图像分割”。CVPR。2024。[project] [Paper] [代码]。[C17] Jaemin Cho,Yushi Hu,Roopal Garg,Peter Anderson,Ranjay Krishna,Jason Baldridge,Mohit Bansal,Jordi Pont-Tuset和Su Wang。“ Davidsonian场景图:在文本到图像生成的细粒度评估中提高可靠性”。ICLR。 2024。 [project] [Paper] [代码]。 [C16] Jaemin Cho,Abhay Zala和Mohit Bansal。 “用于文本到图像生成和评估的视觉编程”。 神经。 2023。 [project] [Paper] [VPGEN代码] [VPEVAL代码]。 [C15] Shoubin Yu,Jaemin Cho,Prateek Yadav和Mohit Bansal。 “用于视频本地化和问题回答的自链图像模型”。 神经。 2023。ICLR。2024。[project] [Paper] [代码]。[C16] Jaemin Cho,Abhay Zala和Mohit Bansal。“用于文本到图像生成和评估的视觉编程”。神经。2023。[project] [Paper] [VPGEN代码] [VPEVAL代码]。[C15] Shoubin Yu,Jaemin Cho,Prateek Yadav和Mohit Bansal。“用于视频本地化和问题回答的自链图像模型”。神经。2023。[Paper] [代码]。[C14] Zhenhailong Wang,Ansel Blume,Sha Li,Genglin Liu,Jaemin Cho,Zineng Tang,Mohit Bansal和Heng Ji。“ paxion:在视频语言基础模型中修补动作知识”。神经(聚光灯)。2023。[Paper] [代码]。

Jaemin Cho

Jaemin ChoPDF文件第1页

Jaemin ChoPDF文件第2页

Jaemin ChoPDF文件第3页

Jaemin ChoPDF文件第4页

相关文件推荐

2021 年

通过分层相关性传播增强核电站 AI 模型的可解释性 Seung Geun Kim a*、Seunghyoung Ryu a、Hyeonmin Kim b、Kyungho Jin b、Jaehyun Cho ba 应用人工智能实验室/b 韩国原子能研究院风险评估与管理研究团队,韩国大田儒城区大德大路 989 号街 111,34057 * 通讯作者:sgkim92@kaeri.re.kr 1.简介 随着人工智能 (AI) 技术的快速发展,各个领域的应用数量巨大。核领域也紧跟这一趋势,许多研究利用 AI 模型解决事件诊断和自动/自主操作等问题。然而,占据近期 AI 技术应用最大份额的深度神经网络 (DNN) 具有不透明且可解释性低的局限性。对于基于 DNN 的模型,很难了解模型的内部逻辑或模型如何从给定的输入推断出输出。由于这一限制,尽管基于 DNN 的模型的性能可以接受,但人们对将其实际应用于安全关键领域和与道德/法律问题相关的领域仍犹豫不决。为了克服可解释性低的限制,已经提出了许多可解释的人工智能 (XAI) 方法。XAI 方法可以提供详细的解释,例如模型的内部逻辑和输入与输出之间的关系。然而,尽管可解释性问题对于安全关键的核领域至关重要,但缺乏处理 XAI 的研究。在本研究中,为了提高核领域人工智能模型的可解释性和实用性,研究了分层相关性传播 (LRP) [1],它是 XAI 方法之一,与其他 XAI 方法相比,它在许多应用中表现出更好的性能。论文的其余部分组织如下。在第 2 章中,对 XAI 和 LRP 进行了简要说明。第 3 章描述了可行性检查实验,第 4 章总结了本文。 2. 前言 2.1 可解释人工智能 可解释人工智能 (XAI) 是一种使人类轻松理解 AI 模型的技术。大多数 AI 模型在数据处理和解决问题的方法方面与人类不同。例如,AI 模型识别具有像素 RGB 值的图像,而人类则不能。提出 XAI 是为了减轻理解 AI 模型内部过程或推断某些输出的原因的难度。

¥1.0