邀请在2024年12月AI的全球问题上关于AI的全球问题的神经访问研讨会2024年12月在2024年12月的开放问题,2024年10月CIFAR DEEP LEAD LEAVY SUMMLE暑期夏季学校2024年7月,多伦多大学学生AI学生AI大学学生AI 2023年1月2023年1月1月1月的剑桥大学cambridge University computational and Biological Lab Scienter 2022年多伦多大学学校(高中)研究俱乐部(远程)2022年4月神经研讨会:编程语言和神经成像系统(遥远)2021年12月Schwartz-riesman Institute Institute研讨会系列(远程)2021年11月)ICCV ICCV ICCV关于Neural Architect on Neural Architect:现在和未来的(远程(遥远)2021年10月20日至2021年10月20日Keynote:K. ICML Workshop on Time Series (remote) July 2021 Oxford University, StatML Centre for Doctoral Training Seminar (remote) July 2021 Centre for Mathematics and Algorithms for Data, University of Bath (remote) July 2021 Microsoft Research AutoML Lecture Series (remote) May 2021 Flatiron Institute, Center for Computational Mathematics May 2021 ICLR Workshop on Deep Learning for Simulation (remote) April 2021 University College伦敦,DeepMind/Ellis CSML研讨会系列(遥控)2021年2月,贝叶斯深度学习(远程)Neurips Europe Meetup 2020年12月Neurips研讨会:超越反射(远程)2020年12月
Jennifer G. Dy 是马萨诸塞州波士顿东北大学电气与计算机工程系的全职教授,她于 2002 年首次加入该系。她分别于 1997 年和 2001 年获得印第安纳州西拉斐特普渡大学电气与计算机工程学院的硕士和博士学位,并于 1993 年获得菲律宾大学电气工程系的学士学位。她的研究涵盖机器学习的基础及其在生物医学成像、健康、科学和工程中的应用,研究领域包括无监督学习、可解释模型、可解释人工智能、降维、特征选择/稀疏方法、向不确定专家学习、主动学习、贝叶斯模型、深度表示学习、持续学习和可信赖人工智能。她是体验式人工智能研究所的人工智能教员主任。她还是机器学习实验室主任,也是东北大学 SPIRAL(信号处理、成像、推理和学习)中心的创始教员。她于 2004 年获得 NSF 职业奖。她曾担任或正在担任 ICML 董事会 (前身为国际机器学习学会) 秘书、《机器学习研究杂志》、《机器学习》杂志、《IEEE 模式分析与机器智能学报》副主编/编委会成员、机器学习、人工智能和数据挖掘顶级会议 (ICML、NeurIPS、ACM SIGKDD、AAAI、IJCAI、UAI、AISTATS、ICLR、SIAM SDM) 的组织和/或技术程序委员会成员、SIAM SDM 2013、ICML 2018、AISTATS 2023 和 AAAI 2024 的项目主席。她是 AAAI 研究员
PC 成员 ⋄ 第九届量子计算、通信和密码理论会议(TQC 2014)。 ⋄ 第二十届量子信息处理年会(QIP 2017)。 ⋄ 第二十一届量子信息处理年会(QIP 2018)。 ⋄ 与 ICSE 2020 和 ICSE 2021 共同举办的量子软件工程国际研讨会 (Q-SE 2020、Q-SE 2021)。 ⋄ 第十五届量子计算、通信和密码理论会议 (TQC 2020)。 ⋄ 2021 年 IEEE 国际量子计算与工程会议 (QCE 2021)。 ⋄ 第 43 届 ACM SIGPLAN 编程语言设计与实现会议 (PLDI 2022)。 ⋄(领域主席)第 10 届学习表征国际会议(ICLR 2022)。⋄ 量子计算理论实践研讨会 QCTIP 2022。⋄(领域主席)第 36 届神经信息处理系统会议(NeurIPS 2022)。⋄(领域主席)第 40 届机器学习国际会议(ICML 2023)。⋄(领域主席)第 37 届神经信息处理系统会议(NeurIPS 2023)。⋄ 第 51 届 ACM SIGPLAN 编程语言原理研讨会(POPL 2024)。⋄ 第 45 届 ACM SIGPLAN 编程语言设计与实现会议(PLDI 2024)。⋄(领域主席)第 41 届机器学习国际会议(ICML 2024)。 ⋄(领域主席)第 38 届神经信息处理系统会议(NeurIPS 2024)。⋄(高级 PC)第 39 届 AAAI 人工智能会议(AAAI 2025)。⋄ 第 46 届 ACM SIGPLAN 编程语言设计与实现会议(PLDI 2025)。⋄(领域主席)第 42 届机器学习国际会议(ICML 2025)。
1。x li,j ding,m elhoseiny。vrsbench:一种多功能视觉语言基准数据集,用于遥感图像理解。神经信息处理系统(NERUIPS)的第三十八大会,2024年。pdf 2。m艾哈迈德,X li,M Elhoseiny。3DCOMPAT200:用于组成识别的语言扎根大规模3D视觉数据集。第三十八届神经信息处理系统会议(Neruips),2024年。3。x li†,Jian ding†,Z Chen,M Elhoseiny。uni3dl:3D和语言理解的统一模型。欧洲计算机视觉会议(ECCV)2024。PDF 4。J Chen,D Zhu,X Shen,X Li,Z Liu,P Zhang,R Krishnamoorthi,V Chandra,Y Xiong,M Elhoseiny。迷你v2:大型语言模型作为视觉多任务学习的统一接口。arxiv。PDF 5。D Zhu,J Chen,X Shen,X Li,M Elhoseiny。Monigpt-4:使用先进的大语言模型来增强视力语言理解。国际学习表征会议(ICLR)2024(> 24K在GitHub开始)。PDF 6。J Chen,D Zhu,K Haydarov,X Li,M Elhoseiny。 视频chatcaptioner:迈向丰富的时空描述,arxiv 2023。 PDF 7。 f khan†,X li†,一座寺庙,M elhoseiny。 渔网:用于鱼类补充,检测和功能性状预测的大规模数据集和基准。 国际计算机视觉会议(ICCV),2023年。 PDF 8。 pdfJ Chen,D Zhu,K Haydarov,X Li,M Elhoseiny。视频chatcaptioner:迈向丰富的时空描述,arxiv 2023。PDF 7。f khan†,X li†,一座寺庙,M elhoseiny。渔网:用于鱼类补充,检测和功能性状预测的大规模数据集和基准。国际计算机视觉会议(ICCV),2023年。PDF 8。pdfX Shen,X Li,M Elhoseiny。MASTGAN:具有时间运动风格的视频,IEEE计算机视觉和模式识别会议(CVPR),2023年。
3。脱离Bellman的完整性:通过基于模型的返回条件的监督学习[链接] Zhaoyi Zhou,Chuning Zhu,Runlong Zhou,Qiwen Cui,Abhishek Gupta,Simon S. Du ICLR 2024 2024年海报我们研究了Al Al Al Al的长度和弱点。4。强化方差学习中的尖锐方差界限:在随机和确定性环境中两全其美[link] Runlong Zhou,Zihan Zhang,Simon S. Du ICML 2023海报我们提供了一个系统的研究研究,对基于模型和模型的强化学习的方差依赖性遗憾界限,用于制作模型和模型的增强范围。 提出的基于模型的算法既适用于随机和确定性MDP。 5。 潜在马尔可夫决策过程的依赖于方差的和无水平的加固学习[链接] Runlong Zhou,Ruosong Wang,Simon S. Du ICML 2023海报我们为潜在MDPS提供了算法框架(可见上下文),从而实现了第一台无线的最小值遗憾。 我们通过使用对称技术为LMDP提供了一种新颖的LMDP遗憾下限来补充这项研究。 6。 了解在线组合优化的政策优化中的课程学习[链接] Runlong Zhou,Zelin HE,Yuandong Tian,Yi Wu,Yi Wu,Simon S. DU TMLR我们制定了典范的在线组合优化问题,作为潜在的MDP,并为LMDPS的自然政策梯度提供了融合。 我们通过相对条件数的角度显示了课程学习的有效性。 7。强化方差学习中的尖锐方差界限:在随机和确定性环境中两全其美[link] Runlong Zhou,Zihan Zhang,Simon S. Du ICML 2023海报我们提供了一个系统的研究研究,对基于模型和模型的强化学习的方差依赖性遗憾界限,用于制作模型和模型的增强范围。提出的基于模型的算法既适用于随机和确定性MDP。5。依赖于方差的和无水平的加固学习[链接] Runlong Zhou,Ruosong Wang,Simon S. Du ICML 2023海报我们为潜在MDPS提供了算法框架(可见上下文),从而实现了第一台无线的最小值遗憾。我们通过使用对称技术为LMDP提供了一种新颖的LMDP遗憾下限来补充这项研究。6。了解在线组合优化的政策优化中的课程学习[链接] Runlong Zhou,Zelin HE,Yuandong Tian,Yi Wu,Yi Wu,Simon S. DU TMLR我们制定了典范的在线组合优化问题,作为潜在的MDP,并为LMDPS的自然政策梯度提供了融合。我们通过相对条件数的角度显示了课程学习的有效性。7。Stochastic Shortest Path: Minimax, Parameter-Free and Towards Horizon-Free Regret [Link] Jean Tarbouriech*, Runlong Zhou* , Simon S. Du, Matteo Pirotta, Michal Valko, Alessandro Lazaric NeurIPS 2021 Spotlight, 3 % acceptance rate We propose an algorithm (EB-SSP) for SSP problems, which is the first to achieve minimax optimal regret while无参数。
• BinHuraib, T.、Tuckute, G.、*Blauch, NM Topoformer:通过空间查询和重新加权在 Transformer 语言模型中实现类似大脑的地形组织。(2024 年)。国际学习表征会议 (ICLR),Re-Align 研讨会。*表示联合负责人和主要主管。• Vin, R.、Blauch, NM、Plaut, DC、Behrmann, M。视觉文字处理涉及分层、分布式和双边皮质网络。(2024 年)。iScience,27,108809。• Brookshire, G.、Kasper, J.、Blauch, NM、Wu, YC、Glatt, Ryan、Merrill, D.、Gerrol, S.、Yoder, KJ、Quirk, C.、Lucero, C。深度学习翻译脑电图研究中的数据泄漏。神经科学前沿。 • Ayzenberg, V.、Blauch, NM、Behrmann, M. 使用深度神经网络解决物体识别的方法 (2023)。PsyArxiv。对 TiCS 评论的反驳。• Blauch, NM Behrmann, M.、Plaut, DC 灵长类高级视觉皮层拓扑组织的连接约束计算说明 (2022)。美国国家科学院院刊,119 (3)。• Blauch, NM、Behrmann, M.、Plaut, DC 对人类陌生和熟悉面孔识别感知专业知识的计算洞察 (2021)。认知,208,104341。• Blauch, NM、Behrmann, M. Plaut, DC (2021)。熟悉和不熟悉面孔的共享感知表征的深度学习:对评论的回复。认知,208,104341。• Granovetter, M.、Burlingham, C.、Blauch, NM、Minshaw, C.、Heeger, D.、Behrmann, M. (2020) 不寻常的任务诱发瞳孔反应表明自闭症中存在不典型的蓝斑活动。神经科学杂志。• Blauch, NM、Behrmann, M. (2019)。以 3D 形式呈现面部。自然人类行为。评论。• Blauch, NM、Aminoff, E.、Tarr, MJ (2017)。功能局部化表示包含分布式信息:从深度卷积神经网络模拟中获得的见解。认知科学学会第 39 届年会论文集。
其他经验 协议实验室志愿者顾问(2018 年夏季)、顾问 2021 - 加速科学的软件工具 Encultured AI 顾问,2022 年 9 月 - 非常规 AI 安全相关平台 OccamzRazor 顾问委员会成员 (2015-2018) 科学家的知识捕获和共享平台 Expii 科学知识图谱顾问 (2014) 在线参与式数学教育。 Beagle 联合指导(与 Juan Batiz-Benet 合作)一个开发科学文献社交注释工具的项目(2014-)[暂停] 房利美和约翰赫兹基金会奖学金采访员(2015-) 确定下一代科学/工程领袖 开放慈善项目科学顾问(2013-2016) 就生物工具和技术、人工智能、纳米技术、科学政策等提供建议 脑保护基金会科学顾问(2015-2018) 香农实验室非正式咨询(2018 年夏季) 麻省理工学院媒体实验室“科学+艺术/设计/工程的未来”咨询小组成员(2016-)[10,000 美元奖金] Wyss 中心(日内瓦) 战略输入 Neuralink(2016 年 7 月 - 11 月) 为后来成为 Neuralink 的公司提供早期无偿咨询 - 直接为 Elon Musk 提供建议,帮助培育初始团队 志愿执行顾问:转化生物技术研究所( IXBio) (2018) 为英国政府成员提供非正式的科学政策建议 科学同行评审:PLoS 计算生物学、JoVE、Nature Communications、麻省理工学院出版社、Neuron、ICLR BAICS、NeurIPS,Frontiers 科学研讨会客座编辑 组织:“科学技术的瓶颈”,与 Geoff Anders、Jose Luis Ricon 和 Larissa Hesketh-Rowe 共同组织 (2021) “分子增材制造”,英国剑桥大学,领导的研讨会 (2016) 与领先的纳米技术专家一起勾勒出如何制造分子 3D 打印机 Kavli Futures Symposium,“走向皮质计算分类法”,与 Gary Marcus 共同组织,由 Kavli 基金会资助 6 万美元 (2015) Cosyne Workshop,“用于地面真实神经科学的工具和方法”,与 Annabelle Singer 共同组织(2015) CIFAR 心机链接研讨会 (2019),与 Blake Richards 和 Alona Fyshe 联合组织 纽约干细胞基金会研讨会,“免疫工程”,共同发起研讨会 (2015) 其他:共同创建者:神经技术架构网络,在白宫 BRAIN 计划 2014 年 9 月 30 日公告中介绍,http://neuroarchitecting.org/ 参与者:NTC 神经伦理研讨会 (2017)、Kavli 未来研讨会:神经技术 (2017)、宾大大脑深度学习研讨会 (2018) 报告员:BrainX.io 全球大脑研究协调会议 (2016)
用于凸优化的自适应近端梯度法 NeurIPS ,2024 16. K. Mishchenko、A. Defazio Prodigy:一种快速自适应的无参数学习器 ICML ,2024 15. A. Khaled、K. Mishchenko、C. Jin DoWG Unleashed:一种有效的通用无参数梯度下降法 NeurIPS ,2023 14. A. Defazio、K. Mishchenko 通过 D 自适应实现无学习率学习 ICML ,2023 杰出论文奖 13. B. Woodoworth、K. Mishchenko、F. Bach 两个损失胜过一个:使用更便宜的代理进行更快的优化 ICML ,2023 12. K. Mishchenko、F. Bach、M. Even、B. Woodworth 异步 SGD 在任意延迟 NeurIPS,2022 11. K. Mishchenko、G. Malinovsky、S. Stich、P. Richtárik ProxSkip:是的!局部梯度步骤可证明可加速通信!终于! ICML ,2022 10. K. Mishchenko、A. Khaled、P. Richtárik 近端和联合随机重新调整 ICML ,2022 9. K. Mishchenko、B. Wang、D. Kovalev、P. Richtárik IntSGD:随机梯度的自适应无浮点压缩 ICLR ,Spotlight,2022 8. K. Mishchenko、A. Khaled、P. Richtárik 随机重新调整:简单分析但带来巨大改进 NeurIPS ,2020 7. Y. Malitsky、K. Mishchenko 无下降的自适应梯度下降 ICML ,2020 6. K. Mishchenko、F. Hanzely、P. Richtárik 分布式优化中 99% 的 Worker-Master 通信是不需要的 UAI ,2020 5. K. Mishchenko, D. Kovalev, E. Shulgin, Y. Malitsky, P. Richtárik 重温随机超梯度 AISTATS,2020 4. A. Khaled, K. Mishchenko, P. Richtárik 相同和异构数据 AISTATS 上局部 SGD 的更严格理论,2020 3. S. Soori, K. Mishchenko, A. Mokhtari, M. Dehnavi, M. Gürbüzbalaban DAve-QN:具有局部超线性收敛率的分布式平均拟牛顿法 AISTATS,2020 2. F. Hanzely,K. Mishchenko,P. Richtárik SEGA:通过梯度草图 NeurIPS 减少方差,2018 1. K. Mishchenko,F. Iutzeler,J. Malick,M.-R。 Amini 一种用于分布式学习的延迟容忍近端梯度算法 ICML,2018
1。背包语言模型。在计算语言学协会年会(ACL)年会2023年。接受率:23.5%未偿还纸张奖:39 /3872纸提交。约翰·休伊特(John Hewitt),约翰·加斯敦(John Glongstun),克里斯托弗·D·曼宁(Christopher D. Manning),珀西·梁(Percy Liang)。2。通过生成预训练的旋律转录。在国际音乐信息检索研讨会(ISMIR)2022中。接受率:43.3%的克里斯·多纳休(Chris Donahue),约翰·加斯敦(John Glongstun),珀西·梁(Percy Liang)。3。扩散lm改善可控文本生成。神经信息处理系统的进步(神经)2022。接受率:25.6%的口头呈递。Xiang Lisa Li,John Glongstun,Ishaan Gulrajani,Percy Liang,Tatsunori B. Hashimoto。 4。 淡紫色:使用发散边界来测量神经文本和人类文本之间的差距。 神经信息处理系统的进步(神经)2021。 接受率:25.7%未偿还纸张奖:6 /9122纸质提交。 奎师那·普鲁图拉(Krishna Pillutla),斯瓦巴(Swabha Swayamdipta),罗文·泽勒斯(Rowan Zellers),约翰·盖斯坦(John Gondstun),肖恩·威尔克(Sean Welleck),Yejin Choi,Zaid Harchaoui。 5。 通过Langevin Dynamics从自回旋模型进行平行和灵活的采样。 在机器学习国际会议(ICML)2021中。 接受率:21.5%Vivek Jayaram*,John Glongstun*(*同等贡献)。 6。 使用连续时间梯度更快地学习。 动态与控制学习(L4DC)2021。 7。 8。 9。 10。Xiang Lisa Li,John Glongstun,Ishaan Gulrajani,Percy Liang,Tatsunori B. Hashimoto。4。淡紫色:使用发散边界来测量神经文本和人类文本之间的差距。神经信息处理系统的进步(神经)2021。接受率:25.7%未偿还纸张奖:6 /9122纸质提交。奎师那·普鲁图拉(Krishna Pillutla),斯瓦巴(Swabha Swayamdipta),罗文·泽勒斯(Rowan Zellers),约翰·盖斯坦(John Gondstun),肖恩·威尔克(Sean Welleck),Yejin Choi,Zaid Harchaoui。5。通过Langevin Dynamics从自回旋模型进行平行和灵活的采样。在机器学习国际会议(ICML)2021中。接受率:21.5%Vivek Jayaram*,John Glongstun*(*同等贡献)。6。使用连续时间梯度更快地学习。动态与控制学习(L4DC)2021。7。8。9。10。塞缪尔·阿恩斯沃思(Samuel Ainsworth),肯德尔·洛里(Kendall Lowrey),约翰·康斯敦(John Glongstun),扎伊德·哈科伊(Zaid Harchaoui),悉达多·斯里尼瓦萨(Siddhartha Srinivasa)。一种信息瓶颈方法,用于控制理由提取中的简洁性。自然语言处理中的经验方法(EMNLP)2020。接受率:24.5%Bhargavi Paranjape,Mandar Joshi,John Glongstun,Hannaneh Hajishirzi,Luke Zettlemoyer。用深的生成先验的源分离。在国际机器学习会议(ICML)2020中。接受率:21.8%Vivek Jayaram*,John Glongstun*(*同等贡献)。卷积作曲家分类。在国际音乐信息检索研讨会(ISMIR)2019中。接受率:45.1%苛刻的Verma,John Glongstun。耦合复发模型,用于复音音乐组成。在国际音乐信息检索研讨会(ISMIR)2019中。接受率:45.1%John Glongstun,Zaid Harchaoui,Dean P. Foster,Sham M. Kakade。11。监督音乐转录的不断增长和数据增强。在国际声学,言语和信号处理(ICASSP)2018中。接受率:49.7%的口头介绍。John Gongstun,Zaid Harchaoui,Dean P. Foster,Sham M. Kakade。12。用于多个F0估计的频域卷积。Mirex摘要(技术报告)2017。John Gongstun,Zaid Harchaoui,Dean P. Foster,Sham M. Kakade。13。音乐网:从头开始学习音乐的功能。在2017年国际学习表征会议(ICLR)。接受率:39.1%John Glongstun,Zaid Harchaoui,Sham M. Kakade。
不受位置变化的影响。生物控制论,36(4),193-202。 https://doi.org/10.1007/BF 00344251 Goodfellow, I.、Bengio, Y. 和 Courville, A. (2016)。深度学习。麻省理工学院出版社。 (Schmidt、I. Schiffman、Y. Schaefer、A. 化学工程师和仪器仪表(2018)Graves、A.、Wayne、G. 和 Danihelka、I.(2014)。神经图灵机。 arXiv。 Ha, D. 和 Schmidhuber, J. (2018)。世界模特。 arXiv。 https://arxiv.org/abs/1803.10122 Han, K., Wang, Y., Chen, H., Chen, X., Guo, J., Liu, Z., Tang, Y., Xiao, A., Xu, C., Xu, Y., Yang, Z., Zhang, Y., & Tao, D. (2020 年)。关于视觉变压器的调查。 arXiv。 https://arxiv.org/abs/2012.12556 Higgins, I., Amos, D., Pfau, D., Racaniere, S., Matthey, L., Rezende, D., 和 Lerchner, A. (2018)。迈向解开表征的定义。 arXiv。 https://archiv. org/abs/1812.02230 美国国立卫生研究院(AI)(2020 年)。 2020 年人工智能市场:5 年历史的人工智能创新和 5 年历史的临床试验 LeCun, Y., Bengio, Y., & Hinton, G. (2015 年)。深度学习。自然,521,436-444。 http://dx.doi.org/10.1038/nature 14539 Mansimov, E., Parisotto, E., Ba, JL 和 Salakhutdinov, R. (2015)。利用注意力机制根据标题生成图像。 arXiv。 https://archiv.org/abs/1511.02793 纽约(2015 年)。 我的一位朋友是角川家族的成员(2016年)(2016年)。 http://dx.doi.org/10.1037/0033-295X.101.1.13 McCulloch, WS 和 Pitts, W. (1943)。神经活动中蕴含的观念的逻辑演算。数学生物物理公报,5(4),115-133。 https://doi.org/10.1007/BF02478259 Nakkiran, P.、Kaplun, G.、Bansal, Y.、Yang, T.、Barak, B. 和 Sutskever, I. (2019)。深度双重下降:更大的模型和更多的数据会带来危害。 arXiv。 https://arxiv.org/abs/ 1912.02292 Perez, J.、Marinkovic, J. 和 Barcelo, P.(2019 年 5 月 6-9 日)。论现代神经网络架构的图灵完备性。 ICLR 2019:第七届学习表征国际会议。路易斯安那州新奥尔良。美国。 Radford , A.、Kim , JW、Hallacy , C.、Ramesh , A.、Goh , G.、Agarwal , S.、Sastry , G.、Askell , A.、Mishkin , P.、Clark , J.、Krueger , G. 和 Sutskever , I. (2021)。从自然语言监督中学习可转移的视觉模型。 arXiv。 https://arxiv.org/abs/2103.00020 Ramachandran, P., Zoph, B., 和 Le, QV (2017)。寻找激活函数。 arXiv。 https://arxiv.org/abs/ 1710.05941 Razavi, A., van the Word, A. 和 Vinyals, O. (2019)。使用 VQ-VAE-2 生成各种高保真图像arXiv。 https://arxiv.org/abs/1906.00446 Reed, S.、Akata, Z.、Yan, X.、Logeswaran, L.、Schiele, B. 和。