加利福尼亚大学加利福尼亚大学拉霍亚大学,加利福尼亚州,2017年至2022年研究生研究助理,顾问:Zhuowen Tu-教授 - 专注于视觉代表性学习,并将其应用于广泛的应用程序。 - 探索了视觉模型中的变压器,重点是任务解码器和骨干设计。 相关作品被CVPR 2021和ICCV 2021接受。 - 开发了一个注意事项分类的注意星座模型。 这项工作被ICLR 2021接受。 - 开发了一种几何感知的骨骼检测方法,具有加权的Hausdor距离和几何加权的跨透明镜损失。 这项工作被BMVC 2019接受。加利福尼亚大学加利福尼亚大学拉霍亚大学,加利福尼亚州,2017年至2022年研究生研究助理,顾问:Zhuowen Tu-教授 - 专注于视觉代表性学习,并将其应用于广泛的应用程序。- 探索了视觉模型中的变压器,重点是任务解码器和骨干设计。相关作品被CVPR 2021和ICCV 2021接受。- 开发了一个注意事项分类的注意星座模型。这项工作被ICLR 2021接受。- 开发了一种几何感知的骨骼检测方法,具有加权的Hausdor距离和几何加权的跨透明镜损失。这项工作被BMVC 2019接受。
•将语言模型重新定位为嵌入模型:查找Compute-Timepimal配方; A. Ziarko,A。Jiang,B。Piotrowski,W。Li,M。Jamnik,P。Milo。神经2024•较大,正规化,乐观:计算和样品有效连续控制的缩放; M. Nauman,M。Ostaszewski,K。Jankowski,P。MiLo's,M。Cygan;神经2024(聚光灯)•微调加强学习模型秘密地忘记了缓解问题; M. Wolczyk,B。Cupial,M。Ostaszewski,M。Bortkiewicz,M。Zajac,R。Pascanu,L。Kucinski,P。Milo。 ICML 2024(聚光灯)•Magnushammer:一种基于变压器的前提选择方法; M. Miku La,S。Antoniak,S。Tworkowski,A。Jiang,J。PengZhou,ch。Galias,S。S.Syoceanu,H。Michalewski); ICRA 2020Galias,S。S.Syoceanu,H。Michalewski); ICRA 2020szegedy,L。Kuci´nski,P。Milo lo。,Y。Wu; ICLR 2024•聚焦变压器:上下文缩放的对比训练; S. Tworkowski,K。Staniszewski,M。Pacek,Y。Wu,H。Michalewski,P。Milo。神经2023•快速而精确:通过自适应子搜索调整计划范围; M. Zawalski,M。Tyrolski,K。Czechowski,D.Stachura,P.Piekos,T。Odrzygozdz,Y。Wu,L。Kucinski,P。Milo。 ICLR 2023(值得注意的前5%)•连续世界:持续强化学习的机器人基准; M. Wo Lczyk,M。Zajac,R。Pascanu,L。Kuci´nski,P。Milo; Neurips 2021•亚目标搜索复杂的推理任务; K. Czechowski,T。Odrzyg´o´zd´z,M。Zbysi´nski,M。Zawalski,K。Olejnik,Y。Wu,L。Kuci´nski,P。Milo lo; Neurips 2021•基于模型的加固学习(与L. Kaiser,M。Babaeizadeh,B。Osi´nski,R。Campbell,K。Czechowski,D。Erhan,C。Finn,P。Kozakakowski,S.Levine,S.Levine,S.Levine,S.Levine,R.Sepassi,R.Sepassi,G。Tucker,G.Tucker,H。Michalewski); ICLR 2020(聚光灯)•基于模拟的实用自主驾驶的增强加固学习(与B. Osi´nski,A。Jakubowski,P。Ziecina,P。Ziecina,CH。
旅行奖(Neuroai研讨会 @ Neurips 2024)2024强调审稿人(ICLR 2022)2022杰出审稿人(ICCV 2021)2021 2021杰出的ECE杰出论文,欧洲国立大学2021年杰出审稿人(CVPR 2021)2021 2021 2021年全部奖学金 - seoam yoon Yoon基金会 - 2013年 - 2013年 - 2013年 - 2013年 - 国立大学2017年首尔大都会警察局奖证书2016年ISIS 2015 2015最佳会议论文奖2015 Jongha奖学金2014
●ICLR 2024在LLM代理商上的研讨会●值得信赖的多模式基础模型和AI代理(TIFA)ICML 2024●多模式基础模型相遇的AI ICML 2024●NeyUrips 2024 NeyUrips 2024 2024 Neurips oon Open-Worlips opecet the toe to priment to primst to primst wealeips weaurips 202222222224有关有用可靠的AI代理的研讨会●CMU代理讲习班2024●CORL 2024语言和机器人学习研讨会●CORL 2024 X-EMBROBOTIMENT机器人学习研讨会●伯克利语言课程berkeley on Berkeley on Berkeley on of Berkeley oon on Blogange Model Agents●Facct 2024 Facct 2024 Tuteorage and Prospect of Prospect of LM Agents:LM Adivs:facks of LM Agens:
[28]。Zhang,Lingxuan Zhao,Haochong Xia,Shuo Sun,Jiaze Sun,Molei Qin,Xinyi Li,Yuqing Zhao,Yilei Zhao,Xinyu Cai,Longtao Zheng,Longtao Zheng,Xinrun Wang,Bo an。金融贸易的多模式基础代理:工具增强,多元化和通才。第30届ACM SIGKDD知识发现与数据会议(KDD)的会议记录,2024年。[27]。Pengdeng Li,Shuxin Li,Chang Yang,Xinrun Wang†,Shuyue Hu,Xiao Huang,Hau Chan,Bo an。可配置的镜像下降:统一决策。第41届国际机器学习会议(ICML)会议录,2024年。[26]。Xinrun Wang ∗,Chang Yang ∗,Shuxin Li,Pengdeng Li,Xiao Huang,Hau Chan和Bo An。增强NASH平衡求解器。第33届国际人工智能会议(IJCAI)的会议记录,2024年。[25]。Pengdeng Li,Shuxin Li,Chang Yang,Xinrun Wang†,Xiao Huang,Hau Chan,Bo an。自适应PSRO:迈向自动基于人群的游戏求解器。第33届国际人工智能会议(IJCAI)的会议记录,2024年。[24]。Longtao Zheng,Rundong Wang,Xinrun Wang†,Bo An†。Synapse:轨迹-AS-exemplar提示,并带有用于计算机控制的内存。2024年国际学习代表会议(ICLR)的会议记录,2024年。[23]。Weihao Tan,Winao Zhang,Shanqi Liu,Longtao Zheng,Xinrun Wang†,Bo An†。真正的知识来自实践:通过强化学习使大型语言模型与具体的环境保持一致。2024年国际学习代表会议(ICLR)的会议记录,2024年。[22]。Shanqi Liu,Dong Xing,Pengjie Gu,Bo An,Yong Liu,Xinrun Wang†。贪婪的顺序执行:使用统一框架解决同质和异质的合作任务。2024年国际学习代表会议(ICLR)会议录,Spotlight,2024。[21]。Pengdeng Li ∗,Shuxin Li ∗,Xinrun Wang†,Jakub Cerny,Youzhi Zhang,Stephen Marcus McAleer,Hau Chan,Bo An。Grasper:追求追求问题的通才追求者。第23届国际自主代理和多代理系统会议(AAMAS)的开发项目,2024年。[20]。molei Qin,Shuo Sun,Winao Zhang,Haochong Xia,Xinrun Wang†,Bo An†。Earnhft:高频交易的有效层次增强学习。第38届AAAI人工智能会议(AAAI)的会议记录,2024年。[19]。Haochong Xia,Shuo Sun,Xinrun Wang†,Bo An†。 市场贡献:通过语义上下文将控制权添加到金融市场数据的生产中。 第38届AAAI人工智能会议(AAAI)的会议记录,2024年。 [18]。 Pengdeng Li,Runsheng Yu,Xinrun Wang†,Bo An。 大规模stackelberg均值游戏的过渡信息增强学习。 第38届AAAI人工智能会议(AAAI)的会议记录,2024年。 [17]。 shuo sun ∗,molei Qin ∗,wentao Zhang,Haochong Xia,Chuqiao Zong,Jie Ying,Yonggang Xie,Lingxuan Zhao,Xinrun Wang wang†,Bo An†。 [16]。Haochong Xia,Shuo Sun,Xinrun Wang†,Bo An†。市场贡献:通过语义上下文将控制权添加到金融市场数据的生产中。第38届AAAI人工智能会议(AAAI)的会议记录,2024年。[18]。Pengdeng Li,Runsheng Yu,Xinrun Wang†,Bo An。大规模stackelberg均值游戏的过渡信息增强学习。第38届AAAI人工智能会议(AAAI)的会议记录,2024年。[17]。shuo sun ∗,molei Qin ∗,wentao Zhang,Haochong Xia,Chuqiao Zong,Jie Ying,Yonggang Xie,Lingxuan Zhao,Xinrun Wang wang†,Bo An†。[16]。商家:一个由强化学习增强的整体定量交易平台。第三十七届神经信息处理系统会议(NEURIPS)数据集和基准曲目,2023年。Pengjie Gu,Xinyu Cai,Dong Xing,Xinrun Wang†,Mengchen Zhao,Bo An。离线RL具有离散代理表示POMDPS中的概括性。第三十七届神经信息处理系统会议(神经),2023年。[15]。Shuo Sun,Xinrun Wang†,Wanqi Xue,Xiaoxuan Lou,bo an†。掌握股票市场,并有效地混合了多元化的交易专家。第29届ACM SIGKDD知识发现与数据会议(KDD)的会议记录,2023年。[14]。Runsheng Yu,Weiyu Chen,Xinrun Wang,James Kwok。通过多目标软改进功能增强元学习。第11届学习代表国际会议(ICLR),2023年。[13]。Pengdeng Li,Xinrun Wang†,Shuxin Li,Hau Chan,Bo an。对均值现场游戏的人口大小的政策优化。第11届学习代表国际会议(ICLR),2023年。[12]。Shuxin Li,Xinrun Wang†,Youzhi Zhang†,Wanqi Xue,Jakub Cerny,Bo an。使用预训练的策略来解决大规模追求逃避游戏。第37届AAAI人工智能会议(AAAI)的会议记录,11586-
[2] Hsiang-fu Yu,Cho-Jui Hsieh,Kai-Wei Chang和Chih-Jen Lin,当数据无法填充记忆中时,大型线性分类,第16届ACM SIGKDD国际知识发现与数据挖掘和数据挖掘的国际会议(KDD 2010)(KDD 2010),最佳研究论文,最佳研究论文,最佳研究论文。[3] Liunian Harold Li, Pengchuan Zhang, Haotian Zhang, Jianwei Yang, Chunyuan Li, Yiwu Zhong, Lijuan Wang, Lu Yuan, Lei Zhang, Jenq-Neng Hwang, Kai-Wei Chang , and Jianfeng Gao, Grounded Language-Image Pre-training, the Computer Vision and Pattern Recognition Conference (CVPR 2022)。最佳纸决赛入围者,在8161个提交中,有33名,最高0.4%[4] Kuan-Hao Huang,Varun Iyer,I.-Hung Hsu,Anoop Kumar,Kai-Wei Chang和Aram Galstyan。“ Paraamr:AMR反翻译的大规模句法释义数据集。”在计算语言学协会年度会议中(ACL 2023)。区域椅子奖(语义曲目中的顶纸)[5] Nikil Roashan Selvam,Sunipa Dev,Daniel Khashabi,Tushar Khot和Kai-Wei Chang。“尾巴摇晃狗:社会偏见基准的数据集建筑偏见。”在计算语言学协会年会(ACL Short)的年度会议中,2023年。杰出纸奖[6] Hritik Bansal,Yonatan Bitton,Idan Szpektor,Kai-Wei Chang和Aditya Grover。videocon:通过对比标题进行稳健的视频语言对齐。在计算机视觉和模式识别会议上(CVPR,2024)。在ICLR研讨会上有关基础模型数据问题的最佳纸张奖。[7] Pan Lu,Hritik Bansal,Tony Xia,Jiacheng Liu,Chunyuan Li,Hannaneh Hajishirzi,Hao Cheng,Kai-Wei Chang,Michel Galley和Jianfeng Gao。MathVista:评估视觉上下文中基础模型的数学推理。在国际学习表征会议上(ICLR,2024)。被选为口头(7,000份提交中的85个,前1.2%)[8] Hritik Bansal,Nishad Singhi,Yu Yang,Fan Yin,Aditya Grover和Kai-Wei Chang。“ CleanClip:减轻多模式对比学习中的数据中毒攻击。”在国际计算机愿景会议上(ICCV,2023)。为口头选择(在8088个意见中,有195个,前2.5%),ICLR的最佳纸张奖,涉及可信赖和可靠的大型机器学习模型。[9] Tao Meng,Sidi Lu,Nanyun Peng和Kai-Wei Chang。在神经信息处理系统中具有神经化甲骨文的可控文本生成(Neurips 2022)。被选为口头,201311年中有201名最高1.9%[10]洪川张,liunian Harold Li,Tao Meng,Kai-Wei Chang和Guy van den Broeck。“关于从数据中进行推理的悖论。”在人工智能国际联合会议中(IJCAI 2023)。ijcai-23中的前3个引用的论文[11] Sheng Shen,Liunian Harold Li,Hao Tan,Mohit Bansal,Anna Rohrbach,Kai-Wei Chang,Zhewei Yao和Kurt Keutz,Keurt Keutz,剪辑可以剪辑多少愿望和语言?国际学习代表会议(ICLR 2022)。iClr-22 [12] W. Ahmad,S。Chakraborty,B。Ray,K.-W。张。旨在进行程序理解和生成的预先培训。计算语言学协会北美分会(NAACL 2021),NAACL-21的前3个引用论文。太阳。[13] Z. Hu,Y。Dong,K。Wang,K.-W。 Chang和Y。gpt-gnn:图神经网络的生成预训练。ACM SIGKDD国际知识发现与数据挖掘会议(KDD 2020),在KDD-20的前10名引用论文。[14] M. Alzantot,Y。Sharma,A。Elgohary,B.-J。HO,M。Srivastava,K.-W。张。 生成自然语言对抗性示例。 自然语言经验方法会议HO,M。Srivastava,K.-W。张。生成自然语言对抗性示例。自然语言经验方法会议
[C27] Han Lin *,Jaemin Cho *,Abhay Zala和Mohit Bansal。“ CTRL-ADAPTER:一个有效且通用的框架,用于将各种控件适应任何扩散模型”。ICLR(口头)。 2025。 [project] [Paper] [代码]。 [C26] Zaid Khan,Elias Stengel-Eskin,Jaemin Cho和Mohit Bansal。 “ DataEnvgym:具有学生反馈的教师环境中的数据生成代理”。 ICLR(聚光灯)。 2025。 [project] [Paper] [排行榜] [代码]。 [C25] Jialu Li *,Jaemin Cho *,Yi-lin Sung,Jaehong Yoon和Mohit Bansal。 “ SELMA:学习和合并技能 - 特定文本对象专家与自动生成数据”。 神经。 2024。 [project] [Paper] [代码]。 [C24] Abhay Zala *,Jaemin Cho *,Han Lin,Jaehong Yoon和Mohit Bansal。 “ Envgen:通过LLM生成和适应环境以进行训练体现的代理人”。 Colm。 2024。 [project] [Paper] [代码]。 [C23] Abhay Zala,Han Lin,Jaemin Cho和Mohit Bansal。 “图表:通过LLM计划生成开放域的开放式平台图”。 Colm。 2024。 [project] [Paper] [代码]。 [C22] Han Lin,Abhay Zala,Jaemin Cho和Mohit Bansal。 “ VideodirectorGpt:通过LLM指导计划一致的多场景视频生成”。 Colm。 2024。 [project] [Paper] [代码]。 [C21] Heesoo Jang和Jaemin Cho。 “对大语言模型的偏见和危害的评估”。 2024。 [纸]。ICLR(口头)。2025。[project] [Paper] [代码]。[C26] Zaid Khan,Elias Stengel-Eskin,Jaemin Cho和Mohit Bansal。“ DataEnvgym:具有学生反馈的教师环境中的数据生成代理”。ICLR(聚光灯)。2025。[project] [Paper] [排行榜] [代码]。[C25] Jialu Li *,Jaemin Cho *,Yi-lin Sung,Jaehong Yoon和Mohit Bansal。“ SELMA:学习和合并技能 - 特定文本对象专家与自动生成数据”。神经。2024。[project] [Paper] [代码]。[C24] Abhay Zala *,Jaemin Cho *,Han Lin,Jaehong Yoon和Mohit Bansal。“ Envgen:通过LLM生成和适应环境以进行训练体现的代理人”。Colm。 2024。 [project] [Paper] [代码]。 [C23] Abhay Zala,Han Lin,Jaemin Cho和Mohit Bansal。 “图表:通过LLM计划生成开放域的开放式平台图”。 Colm。 2024。 [project] [Paper] [代码]。 [C22] Han Lin,Abhay Zala,Jaemin Cho和Mohit Bansal。 “ VideodirectorGpt:通过LLM指导计划一致的多场景视频生成”。 Colm。 2024。 [project] [Paper] [代码]。 [C21] Heesoo Jang和Jaemin Cho。 “对大语言模型的偏见和危害的评估”。 2024。 [纸]。Colm。2024。[project] [Paper] [代码]。[C23] Abhay Zala,Han Lin,Jaemin Cho和Mohit Bansal。“图表:通过LLM计划生成开放域的开放式平台图”。Colm。 2024。 [project] [Paper] [代码]。 [C22] Han Lin,Abhay Zala,Jaemin Cho和Mohit Bansal。 “ VideodirectorGpt:通过LLM指导计划一致的多场景视频生成”。 Colm。 2024。 [project] [Paper] [代码]。 [C21] Heesoo Jang和Jaemin Cho。 “对大语言模型的偏见和危害的评估”。 2024。 [纸]。Colm。2024。[project] [Paper] [代码]。[C22] Han Lin,Abhay Zala,Jaemin Cho和Mohit Bansal。“ VideodirectorGpt:通过LLM指导计划一致的多场景视频生成”。Colm。 2024。 [project] [Paper] [代码]。 [C21] Heesoo Jang和Jaemin Cho。 “对大语言模型的偏见和危害的评估”。 2024。 [纸]。Colm。2024。[project] [Paper] [代码]。[C21] Heesoo Jang和Jaemin Cho。“对大语言模型的偏见和危害的评估”。2024。[纸]。国际传播协会(ICA)(高级论文奖)。[C20] Yasumasa onoe,Sunayana Rane,Zachary Berger,Yonatan Bitton,Jaemin Cho,Roopal Garg,Alexander Ku,Zarana Parekh,Jordi Pontuset,Jordi Pont-Tuset,Garrett Tanzer,Su Wang和Jason Baldridge。“ docci:连接和对比图像的描述”。ECCV。 2024。 [Project] [Paper] [DataSet]。 [C19] David Wan,Jaemin Cho,Elias Stengel-Eskin和Mohit Bansal。 “对比区域指导:在没有训练的情况下改善视觉模型的接地”。 ECCV。 2024。 [project] [Paper] [代码]。 [C18] Qin Liu,Jaemin Cho,Mohit Bansal和Marc Niethammer。 “以低潜伏期,高质量和不同的提示来重新思考交互式图像分割”。 CVPR。 2024。 [project] [Paper] [代码]。 [C17] Jaemin Cho,Yushi Hu,Roopal Garg,Peter Anderson,Ranjay Krishna,Jason Baldridge,Mohit Bansal,Jordi Pont-Tuset和Su Wang。 “ Davidsonian场景图:在文本到图像生成的细粒度评估中提高可靠性”。 ICLR。 2024。 [project] [Paper] [代码]。 [C16] Jaemin Cho,Abhay Zala和Mohit Bansal。 “用于文本到图像生成和评估的视觉编程”。 神经。 2023。 [project] [Paper] [VPGEN代码] [VPEVAL代码]。 [C15] Shoubin Yu,Jaemin Cho,Prateek Yadav和Mohit Bansal。 “用于视频本地化和问题回答的自链图像模型”。 神经。 2023。ECCV。2024。[Project] [Paper] [DataSet]。[C19] David Wan,Jaemin Cho,Elias Stengel-Eskin和Mohit Bansal。“对比区域指导:在没有训练的情况下改善视觉模型的接地”。ECCV。 2024。 [project] [Paper] [代码]。 [C18] Qin Liu,Jaemin Cho,Mohit Bansal和Marc Niethammer。 “以低潜伏期,高质量和不同的提示来重新思考交互式图像分割”。 CVPR。 2024。 [project] [Paper] [代码]。 [C17] Jaemin Cho,Yushi Hu,Roopal Garg,Peter Anderson,Ranjay Krishna,Jason Baldridge,Mohit Bansal,Jordi Pont-Tuset和Su Wang。 “ Davidsonian场景图:在文本到图像生成的细粒度评估中提高可靠性”。 ICLR。 2024。 [project] [Paper] [代码]。 [C16] Jaemin Cho,Abhay Zala和Mohit Bansal。 “用于文本到图像生成和评估的视觉编程”。 神经。 2023。 [project] [Paper] [VPGEN代码] [VPEVAL代码]。 [C15] Shoubin Yu,Jaemin Cho,Prateek Yadav和Mohit Bansal。 “用于视频本地化和问题回答的自链图像模型”。 神经。 2023。ECCV。2024。[project] [Paper] [代码]。[C18] Qin Liu,Jaemin Cho,Mohit Bansal和Marc Niethammer。“以低潜伏期,高质量和不同的提示来重新思考交互式图像分割”。CVPR。2024。[project] [Paper] [代码]。[C17] Jaemin Cho,Yushi Hu,Roopal Garg,Peter Anderson,Ranjay Krishna,Jason Baldridge,Mohit Bansal,Jordi Pont-Tuset和Su Wang。“ Davidsonian场景图:在文本到图像生成的细粒度评估中提高可靠性”。ICLR。 2024。 [project] [Paper] [代码]。 [C16] Jaemin Cho,Abhay Zala和Mohit Bansal。 “用于文本到图像生成和评估的视觉编程”。 神经。 2023。 [project] [Paper] [VPGEN代码] [VPEVAL代码]。 [C15] Shoubin Yu,Jaemin Cho,Prateek Yadav和Mohit Bansal。 “用于视频本地化和问题回答的自链图像模型”。 神经。 2023。ICLR。2024。[project] [Paper] [代码]。[C16] Jaemin Cho,Abhay Zala和Mohit Bansal。“用于文本到图像生成和评估的视觉编程”。神经。2023。[project] [Paper] [VPGEN代码] [VPEVAL代码]。[C15] Shoubin Yu,Jaemin Cho,Prateek Yadav和Mohit Bansal。“用于视频本地化和问题回答的自链图像模型”。神经。2023。[Paper] [代码]。[C14] Zhenhailong Wang,Ansel Blume,Sha Li,Genglin Liu,Jaemin Cho,Zineng Tang,Mohit Bansal和Heng Ji。“ paxion:在视频语言基础模型中修补动作知识”。神经(聚光灯)。2023。[Paper] [代码]。
程序委员会 程序主席:CogSci 2024 高级程序委员会成员:ACL 滚动评审(2023 年至今)、NeurIPS(2024 年至今)、ICML(2025 年至今)、CCN(2025 年至今)、CCN 技术程序委员会 (2022–2024) 程序委员会成员:ML:NeurIPS 2016-2023(2018 年前 30% 的审稿人);ICML 2019-2023(2022 年前 10% 的审稿人);AAAI 2020-2021、CoLLAs 2022、ICLR 2022-2024(2023 年重点审稿人);NLP:ACL 2019-2021;NAACL 2019-2021;EMNLP 2020-2021; CoNLL 2020-2021;AACL-IJCNLP 2020;EACL 2021 期刊审稿人:TMLR、《自然人类行为》、《自然通讯》;《通讯生物学》;TICS、《ACM 通讯》、《计算神经科学前沿》