2019 Tau Beta Pi Engineering Honor Society Actoric&Community Service,授予斯坦福工程大三学生的前12.5%。2019年2020年计算机视觉和模式识别(CVPR)2019年神经信息处理系统的进步(NEURIPS)旅行奖(500美元)2018年最佳纸质奖(CS230)〜1000级学生2017年第二名$ 10K奖学金获得者2015美国计算机奥林匹克(USACO)黄金部2014年西门子地区决赛,其中30个项目中有1个项目
[C27] Han Lin *,Jaemin Cho *,Abhay Zala和Mohit Bansal。“ CTRL-ADAPTER:一个有效且通用的框架,用于将各种控件适应任何扩散模型”。ICLR(口头)。 2025。 [project] [Paper] [代码]。 [C26] Zaid Khan,Elias Stengel-Eskin,Jaemin Cho和Mohit Bansal。 “ DataEnvgym:具有学生反馈的教师环境中的数据生成代理”。 ICLR(聚光灯)。 2025。 [project] [Paper] [排行榜] [代码]。 [C25] Jialu Li *,Jaemin Cho *,Yi-lin Sung,Jaehong Yoon和Mohit Bansal。 “ SELMA:学习和合并技能 - 特定文本对象专家与自动生成数据”。 神经。 2024。 [project] [Paper] [代码]。 [C24] Abhay Zala *,Jaemin Cho *,Han Lin,Jaehong Yoon和Mohit Bansal。 “ Envgen:通过LLM生成和适应环境以进行训练体现的代理人”。 Colm。 2024。 [project] [Paper] [代码]。 [C23] Abhay Zala,Han Lin,Jaemin Cho和Mohit Bansal。 “图表:通过LLM计划生成开放域的开放式平台图”。 Colm。 2024。 [project] [Paper] [代码]。 [C22] Han Lin,Abhay Zala,Jaemin Cho和Mohit Bansal。 “ VideodirectorGpt:通过LLM指导计划一致的多场景视频生成”。 Colm。 2024。 [project] [Paper] [代码]。 [C21] Heesoo Jang和Jaemin Cho。 “对大语言模型的偏见和危害的评估”。 2024。 [纸]。ICLR(口头)。2025。[project] [Paper] [代码]。[C26] Zaid Khan,Elias Stengel-Eskin,Jaemin Cho和Mohit Bansal。“ DataEnvgym:具有学生反馈的教师环境中的数据生成代理”。ICLR(聚光灯)。2025。[project] [Paper] [排行榜] [代码]。[C25] Jialu Li *,Jaemin Cho *,Yi-lin Sung,Jaehong Yoon和Mohit Bansal。“ SELMA:学习和合并技能 - 特定文本对象专家与自动生成数据”。神经。2024。[project] [Paper] [代码]。[C24] Abhay Zala *,Jaemin Cho *,Han Lin,Jaehong Yoon和Mohit Bansal。“ Envgen:通过LLM生成和适应环境以进行训练体现的代理人”。Colm。 2024。 [project] [Paper] [代码]。 [C23] Abhay Zala,Han Lin,Jaemin Cho和Mohit Bansal。 “图表:通过LLM计划生成开放域的开放式平台图”。 Colm。 2024。 [project] [Paper] [代码]。 [C22] Han Lin,Abhay Zala,Jaemin Cho和Mohit Bansal。 “ VideodirectorGpt:通过LLM指导计划一致的多场景视频生成”。 Colm。 2024。 [project] [Paper] [代码]。 [C21] Heesoo Jang和Jaemin Cho。 “对大语言模型的偏见和危害的评估”。 2024。 [纸]。Colm。2024。[project] [Paper] [代码]。[C23] Abhay Zala,Han Lin,Jaemin Cho和Mohit Bansal。“图表:通过LLM计划生成开放域的开放式平台图”。Colm。 2024。 [project] [Paper] [代码]。 [C22] Han Lin,Abhay Zala,Jaemin Cho和Mohit Bansal。 “ VideodirectorGpt:通过LLM指导计划一致的多场景视频生成”。 Colm。 2024。 [project] [Paper] [代码]。 [C21] Heesoo Jang和Jaemin Cho。 “对大语言模型的偏见和危害的评估”。 2024。 [纸]。Colm。2024。[project] [Paper] [代码]。[C22] Han Lin,Abhay Zala,Jaemin Cho和Mohit Bansal。“ VideodirectorGpt:通过LLM指导计划一致的多场景视频生成”。Colm。 2024。 [project] [Paper] [代码]。 [C21] Heesoo Jang和Jaemin Cho。 “对大语言模型的偏见和危害的评估”。 2024。 [纸]。Colm。2024。[project] [Paper] [代码]。[C21] Heesoo Jang和Jaemin Cho。“对大语言模型的偏见和危害的评估”。2024。[纸]。国际传播协会(ICA)(高级论文奖)。[C20] Yasumasa onoe,Sunayana Rane,Zachary Berger,Yonatan Bitton,Jaemin Cho,Roopal Garg,Alexander Ku,Zarana Parekh,Jordi Pontuset,Jordi Pont-Tuset,Garrett Tanzer,Su Wang和Jason Baldridge。“ docci:连接和对比图像的描述”。ECCV。 2024。 [Project] [Paper] [DataSet]。 [C19] David Wan,Jaemin Cho,Elias Stengel-Eskin和Mohit Bansal。 “对比区域指导:在没有训练的情况下改善视觉模型的接地”。 ECCV。 2024。 [project] [Paper] [代码]。 [C18] Qin Liu,Jaemin Cho,Mohit Bansal和Marc Niethammer。 “以低潜伏期,高质量和不同的提示来重新思考交互式图像分割”。 CVPR。 2024。 [project] [Paper] [代码]。 [C17] Jaemin Cho,Yushi Hu,Roopal Garg,Peter Anderson,Ranjay Krishna,Jason Baldridge,Mohit Bansal,Jordi Pont-Tuset和Su Wang。 “ Davidsonian场景图:在文本到图像生成的细粒度评估中提高可靠性”。 ICLR。 2024。 [project] [Paper] [代码]。 [C16] Jaemin Cho,Abhay Zala和Mohit Bansal。 “用于文本到图像生成和评估的视觉编程”。 神经。 2023。 [project] [Paper] [VPGEN代码] [VPEVAL代码]。 [C15] Shoubin Yu,Jaemin Cho,Prateek Yadav和Mohit Bansal。 “用于视频本地化和问题回答的自链图像模型”。 神经。 2023。ECCV。2024。[Project] [Paper] [DataSet]。[C19] David Wan,Jaemin Cho,Elias Stengel-Eskin和Mohit Bansal。“对比区域指导:在没有训练的情况下改善视觉模型的接地”。ECCV。 2024。 [project] [Paper] [代码]。 [C18] Qin Liu,Jaemin Cho,Mohit Bansal和Marc Niethammer。 “以低潜伏期,高质量和不同的提示来重新思考交互式图像分割”。 CVPR。 2024。 [project] [Paper] [代码]。 [C17] Jaemin Cho,Yushi Hu,Roopal Garg,Peter Anderson,Ranjay Krishna,Jason Baldridge,Mohit Bansal,Jordi Pont-Tuset和Su Wang。 “ Davidsonian场景图:在文本到图像生成的细粒度评估中提高可靠性”。 ICLR。 2024。 [project] [Paper] [代码]。 [C16] Jaemin Cho,Abhay Zala和Mohit Bansal。 “用于文本到图像生成和评估的视觉编程”。 神经。 2023。 [project] [Paper] [VPGEN代码] [VPEVAL代码]。 [C15] Shoubin Yu,Jaemin Cho,Prateek Yadav和Mohit Bansal。 “用于视频本地化和问题回答的自链图像模型”。 神经。 2023。ECCV。2024。[project] [Paper] [代码]。[C18] Qin Liu,Jaemin Cho,Mohit Bansal和Marc Niethammer。“以低潜伏期,高质量和不同的提示来重新思考交互式图像分割”。CVPR。2024。[project] [Paper] [代码]。[C17] Jaemin Cho,Yushi Hu,Roopal Garg,Peter Anderson,Ranjay Krishna,Jason Baldridge,Mohit Bansal,Jordi Pont-Tuset和Su Wang。“ Davidsonian场景图:在文本到图像生成的细粒度评估中提高可靠性”。ICLR。 2024。 [project] [Paper] [代码]。 [C16] Jaemin Cho,Abhay Zala和Mohit Bansal。 “用于文本到图像生成和评估的视觉编程”。 神经。 2023。 [project] [Paper] [VPGEN代码] [VPEVAL代码]。 [C15] Shoubin Yu,Jaemin Cho,Prateek Yadav和Mohit Bansal。 “用于视频本地化和问题回答的自链图像模型”。 神经。 2023。ICLR。2024。[project] [Paper] [代码]。[C16] Jaemin Cho,Abhay Zala和Mohit Bansal。“用于文本到图像生成和评估的视觉编程”。神经。2023。[project] [Paper] [VPGEN代码] [VPEVAL代码]。[C15] Shoubin Yu,Jaemin Cho,Prateek Yadav和Mohit Bansal。“用于视频本地化和问题回答的自链图像模型”。神经。2023。[Paper] [代码]。[C14] Zhenhailong Wang,Ansel Blume,Sha Li,Genglin Liu,Jaemin Cho,Zineng Tang,Mohit Bansal和Heng Ji。“ paxion:在视频语言基础模型中修补动作知识”。神经(聚光灯)。2023。[Paper] [代码]。
参考[1] Hou,Saihui等。“通过重新平衡来逐步学习统一的分类器。”CVPR2019。[3] Liu,Yaoyao,Bernt Schiele和Qianru Sun。“用于课堂学习学习的自适应聚合网络。”CVPR 2021。[4]刘,Yaoyao,Bernt Schiele和Qianru Sun。“ RMM:用于课堂学习学习的增强记忆管理。”神经2021。[5] Rebuffi,Sylvestre-Alvise等。“ icarl:增量分类器和表示学习。”CVPR2017。[6] Li,Zhizhong和Derek Hoiem。“学习而不会忘记。”TPAMI2017。
- 推动负责任的 ML 和包容性 AI 框架,以促进 Pinterest 生产系统中算法的公平性、多样性和包容性系统设计。 - 通过红队和持续测量和监控系统,领导严格评估 Pinterest 的 LLM 和其他 GenAI 模型的偏见、安全性和公平性。 - 提高所有用户组、内容部分和产品界面中生产规模 AI 系统的信任度和安全性。这项工作促成了多项成功的产品发布,赢得了用户参与度,在 ACM FAccT 2023 和 WISE 2023 上发表了研究论文,并在 NeurIPS 2022 上发表了教程。
我曾担任过AI会议和赠款提案的活跃审稿人,包括Neurips '22 –'24,ICLR '23,'23,'25,ICML '22,AAAI '22和Stanford的《学习倡议未来》的生成AI。为了推进有关以数据为中心的技术及其社会影响的讨论,特别是对于服务不足的社区,我在顶级AI会议上领导了各种研讨会,例如NAACL '25关于服务不足社区的语言模型和ICLR '24和ICML '24-ICML '24 -24数据中心机器学习研究的研讨会。在斯坦福大学,我组织了计算与社会集团'22'23'24和斯坦福大学的多样性,公平和包容性小组'24'25。
审稿人 - 国际计算机视觉杂志(IJCV)。- Transactions on Pattern Recognition and Machine Intelligence (TPAMI) - Journal of Machine Learning Research (JMLR) - Transactions on Image Processing (TIP) - Transactions on Multimedia (TMM) - Computer Aided Design (CAD) - Neural Information Processing Systems (NeurIPS) 2012-2017 - European Conference on Computer Vision (ECCV) 2012-2018 - International Conference on Computer Vision (ICCV) 2013-2017 - 2014年AAAI人工智能会议(AAAI) - 国际计算机图形和交互式技术(SIG -GRAPH)2013年国际会议和展览 - 2013年ACM用户界面软件软件和技术研讨会2014年 - ACM ACM国际通用性和普遍性和普遍性计算(UBICOCOMP)2014 2014
IEEE 知识与数据工程学报( TKDE ) 2023 第三十六届神经信息处理系统会议( NeurIPS ) 2023 网络会议( WWW ) 2022、2023 人工智能会议、社会影响人工智能特别轨道( AAAI ) 2023 ACM SIGKDD 知识发现与数据挖掘会议( SIGKDD ) 2022 SIAM 国际数据挖掘会议( SDM ) 2022 信息与知识管理会议( CIKM ) 2022 IEEE 大数据学报( Big Data ) 2021、2022 IEEE 神经网络与学习系统学报( TNNIS ) 2022 医疗保健中的可解释机器学习研讨会@ICML 2021、2022、2023 自动医疗诊断的计算机视觉研讨会@ICCV 2022
ACM SIGKDD知识发现与数据挖掘会议(KDD):2015-21神经信息处理系统会议(NEURIPS):2019-21国际机器学习国际会议(ICML):2019-20计算语言学协会年会(ACL)年度会议(ACL):2017-19阶段:2017 - 19 2017-20 The AAAI Conference on Artificial Intelligence ( AAAI ): 2018-19 International Joint Conference on Artificial Intelligence ( IJCAI ): 2018-19 ACM International Conference on Web Search and Data Mining ( WSDM ): 2017-19 Annual Conference of the North American Chapter of the Association for Computational Linguistics ( NAACL ): 2018-19 ACM SIGIR Conference on Research and Development in Information Retrieval ( SIGIR ): 2017-18 ACM信息和知识管理会议(CIKM):2017
Best-Paper Award , NeurIPS R-FoMo Workshop Rising Star in AI Award , King Abdullah University of Science and Technology Queen Elizabeth II Graduate Scholarship , University of Alberta (C$,) CGS-M , Natural Science and Engineering Research Council of Canada (C$,) Walter H. Johns Graduate Fellowship , University of Alberta (C$,) Science Graduate Scholarship , University of Alberta (C$,) Kao艾伯塔省大学(C $,)艾伯塔大学(C $)艾森科大学(C $)艾伯塔大学(C $,)Suncor Energy奖学金,Suncor Energy(C $,)Jason Lang奖学金(C $,C $,SUNCOR SUNCOR ENFERCE奖学金(C $)Suncor Energy,Suncor Energy,Suncor Energy,Suncor Energy,Suncor Energy,Suncor Energy,Suncor Energy(C $,)
口头演讲,关于学习有效抽象的计划在Corl 2024受邀演讲,伯克利人工智能研究实验室,UC Berkeley 2023邀请演讲,Stanford Vision and Learn Lab,Stanford Vision and Learn Lab,Stanford University 2022邀请,邀请Talk,Robograds学生会议,Georgia trive 202222222年2022年,密歇根大学2022年邀请演讲,进度实验室,邀请演讲,神经机器人学习研讨会2021年口头演讲,ICRA 2021口语演示的语义代表研讨会,AAAI 2020年2020年口头演示,ISRR 2019