Schmidt Sciences AI2050奖学金,国际2024 TRI年轻教师研究员奖,国际2024年2024年最佳纸张奖,RSS,安全自治研讨会,国际2023年国际最佳纸质奖,CORL,学习和长期学习和长期培训计划工作室,国际2022 Amazon Resignter,国际审查,国际2021奖2022122122122122122221221年20222212222221222. Paper Award, RSS, Self-Supervised Robot Learning Workshop, International 2020 Alexander Graham Bell CGS Doctoral (CGS-D) Award, NSERC, National 2014-2016 Graduate Student Excellence Award, McGill, Institutional 2013-2016 AAAI Robotics Fellowship, International 2015 FQRNT Doctoral Award, McGill, Provincial 2013-2014
2023最佳系统论文决赛入围RSS 2023 2023学生(Chuning Zhu)授予亚马逊科学枢纽奖学金2019 UC Berkeley提名Google PhD奖学金2019年Neurips奖学金2019年Neurips 2019年Neurips 2019 Meta-Learning Worker在2018年最佳审查员2018年Robot 2018(Corme)2018(CORM)的最佳审查员(CORM 2018)(ICM)(CORM 2018)(ICM) 2018年ICML 2018 LLARALA研讨会2016年国家科学基金会研究生研究奖学金2016年国防科学与工程研究生研究生奖学金(拒绝)2016年UC Berkeley杰出GSI奖2015 EECS Berkeley Department Alverty thress Award 2011 Edward Kraft Kraft 2011 Kraft Kraft 2009 Kvpy Fallows,2016年,2016年国防科学与工程研究生奖学金2016年国防科学与工程研究生奖学金(拒绝)2016年国防科学与工程研究生奖学金(拒绝)2016年国家科学研究生研究生研究生研究生研究生研究生奖学金(拒绝)。印度
服务审查(ML)神经信息处理系统(NEURIPS)2023 - 2024(ML)国际机器学习会议(ICML)2024 - 2025(ML)国际学习表征国际会议(ICLR)2024 - 2024 - 2025 - 2025(AI)AAAI AAAI会议AAAI年度会议(AAAI)年度(AAAI)2025(AAAI)202 202 ACL(NLP)ACL(NLP)ACL(NLP)ACL(NLP)ACL(NLP)ACL(NLP)ACL(NLP)ACL(NLP)ACL(NLP)ACL(NLP)ACL(NLP)ACL(NLP)ACL(NLP)ACL(NLP)ACL滚动(NLP)计算语言学协会会议(ACL)2023 - 2024(NLP)自然语言处理中的经验方法(EMNLP)2022 - 2023(机器人技术)IEEE机器人和自动化信函(RA-L)2024 2024(ra-l)2024(robotics)IEEE/RSJ国际智能机器人和机器人(IROS)20224(IROS)20224(IROS)(IROS)2024(IROS) (langrob)2024(研讨会)ICLR关于可靠和负责任的基础模型2024(研讨会)ICML预训练的研讨会:观点,陷阱和前进道路2022
Finn,Pete Florence,C。Fu,M。Gonzalez Arenas,K。Gopalakrishnan,K。Hausman,A。Herzog,J。Hsu,J。Hsu,B。Irpan,A。莱文(Lu) P. Wohlhart,J。Wu,F。Xia,T。Xia,P。Xu,S。Xu,T。Yu,B。Zitkovich,“ Tkovich,” RT-2:Vision-Language-Action-Action-Action模型将Web知识转移到机器人学习(乡村学习)的机器人会议上Finn,Pete Florence,C。Fu,M。Gonzalez Arenas,K。Gopalakrishnan,K。Hausman,A。Herzog,J。Hsu,J。Hsu,B。Irpan,A。莱文(Lu) P. Wohlhart,J。Wu,F。Xia,T。Xia,P。Xu,S。Xu,T。Yu,B。Zitkovich,“ Tkovich,” RT-2:Vision-Language-Action-Action-Action模型将Web知识转移到机器人学习(乡村学习)的机器人会议上
专业活动共同组织者Umich AI研讨会(2024)CVPR研讨会主席(2024)首席组织者,视觉和声音研讨会,网址为CVPR 2018-2024。共同组织者,AV4D:空间工作室中声音的视觉学习,ECCV 2022,ICCV2023。共同组织者,开放世界视觉研讨会,CVPR 2021-2024。共同组织者,体现的多模式学习研讨会,位于ICLR 2021。评论者:CVPR(2015-2020,2022),ICCV(2015,2017,2019,2019,2021),ECCV(2016,2018,2018,2020,2022),Siggraph(2020,2024),Siggraph Paphaph Asia(2024),(2024),ICLR(2018,2024) (2017),Neurips(2017、2019、2021、2022),CHI(2018),UIST(2019),ACL(2022),Corl(2022),ICASSP(2023)(2023)区域主席:CVPR:CVPR(2021,2023,2023,2024,2025),Neurips(Neurips(Neurips),Neurips(2023),20222222222222222222222222222222222222222222222222222222222222222222222222222222年2月22日(neurips)(neurips datev)(neurips)( (2023),ICCV(2023),ECCV(2024)NSF小组成员(2023,2024)
在美国新泽西州普林斯顿普林斯顿举行的11/24 Korhammer研讨会。11/24 AI中心学术对话系列(AICATS),瑞士ETH AI中心。09/24在美国匹兹堡CMU举行的机器人研讨会。 07/24 PRIORS4ROBOTS +灵巧的操纵研讨会讲座,RSS,DELFT,DELFT,荷兰。 06/24在德国威斯巴登执行会议上的主题演讲。 05/24荷兰软机器人研讨会的主题演讲,荷兰埃因霍温。 05/24 ICRA 2024关于生物启发的机器人技术的研讨会,日本横滨。 11/23在学习软机器人的学习:Corl 2023的软系统方面的艰难挑战。 07/23在Living Machines会议上为海洋保护研讨会的生物启发机器人会议。 06/23 TEDX Gateway Talk,印度孟买。 07/22在法国Inria Lille的变形机器人暑期学校举行的主题演讲。 04/22 TED Talk,加拿大温哥华:“像动物一样移动的机器的未来。” 04/22主题演讲在中国Xiamen(Virtual)的IEEE ICCAR。 01/20发言人在美国加利福尼亚州文图拉的Gordon Robotics研究会议上。09/24在美国匹兹堡CMU举行的机器人研讨会。07/24 PRIORS4ROBOTS +灵巧的操纵研讨会讲座,RSS,DELFT,DELFT,荷兰。06/24在德国威斯巴登执行会议上的主题演讲。05/24荷兰软机器人研讨会的主题演讲,荷兰埃因霍温。05/24 ICRA 2024关于生物启发的机器人技术的研讨会,日本横滨。11/23在学习软机器人的学习:Corl 2023的软系统方面的艰难挑战。07/23在Living Machines会议上为海洋保护研讨会的生物启发机器人会议。06/23 TEDX Gateway Talk,印度孟买。07/22在法国Inria Lille的变形机器人暑期学校举行的主题演讲。04/22 TED Talk,加拿大温哥华:“像动物一样移动的机器的未来。” 04/22主题演讲在中国Xiamen(Virtual)的IEEE ICCAR。 01/20发言人在美国加利福尼亚州文图拉的Gordon Robotics研究会议上。04/22 TED Talk,加拿大温哥华:“像动物一样移动的机器的未来。” 04/22主题演讲在中国Xiamen(Virtual)的IEEE ICCAR。01/20发言人在美国加利福尼亚州文图拉的Gordon Robotics研究会议上。
C. Sun,J。Orbik,C。Devin,B。Yang,A。Gupta,G。Berseth,S。Levine。 “完全自主的现实世界加强学习,并应用于移动操作。”在Corl,2022年。 B. Yang,D。Jayaraman,G。Berseth,A。Efros,S。Levine。 “形态 - 敏捷的视觉机器人控制。”在ICRA和RA-L中,2020年。 M. Lambeta,P。Chou,S。Tian,B。Yang,B。Maloon,V。Most,D。Stroud,R。Santos,A。Byagowi,G。Kammerer,D。Jayaraman,R。Calandra。 “数字:一种新型的设计,用于使用手持操作的低成本紧凑高分辨率触觉传感器。”在ICRA和RA-L中,2020年。 B. Yang,J。Zhang,V。Pong,S。Levine,D。Jayaraman。 “替换:一个可再现的低成本基准基准平台,用于机器人学习。”在ICRA,2019年。 T. Liao,G。Wang,B。Yang,R。Lee,K。Pister,S。Levine,R。Calandra。 “微生物的形态学和控制器的数据有效学习”。在ICRA,2019年。 B. Yang,G。Wang,R。Calandra,D。Contreras,S。Levine,K。Pister。 “学习微型机器人的灵活性和可重复使用的运动原语。”在ICRA和RA-L中,2018年。C. Sun,J。Orbik,C。Devin,B。Yang,A。Gupta,G。Berseth,S。Levine。“完全自主的现实世界加强学习,并应用于移动操作。”在Corl,2022年。B. Yang,D。Jayaraman,G。Berseth,A。Efros,S。Levine。 “形态 - 敏捷的视觉机器人控制。”在ICRA和RA-L中,2020年。 M. Lambeta,P。Chou,S。Tian,B。Yang,B。Maloon,V。Most,D。Stroud,R。Santos,A。Byagowi,G。Kammerer,D。Jayaraman,R。Calandra。 “数字:一种新型的设计,用于使用手持操作的低成本紧凑高分辨率触觉传感器。”在ICRA和RA-L中,2020年。 B. Yang,J。Zhang,V。Pong,S。Levine,D。Jayaraman。 “替换:一个可再现的低成本基准基准平台,用于机器人学习。”在ICRA,2019年。 T. Liao,G。Wang,B。Yang,R。Lee,K。Pister,S。Levine,R。Calandra。 “微生物的形态学和控制器的数据有效学习”。在ICRA,2019年。 B. Yang,G。Wang,R。Calandra,D。Contreras,S。Levine,K。Pister。 “学习微型机器人的灵活性和可重复使用的运动原语。”在ICRA和RA-L中,2018年。B. Yang,D。Jayaraman,G。Berseth,A。Efros,S。Levine。“形态 - 敏捷的视觉机器人控制。”在ICRA和RA-L中,2020年。M. Lambeta,P。Chou,S。Tian,B。Yang,B。Maloon,V。Most,D。Stroud,R。Santos,A。Byagowi,G。Kammerer,D。Jayaraman,R。Calandra。“数字:一种新型的设计,用于使用手持操作的低成本紧凑高分辨率触觉传感器。”在ICRA和RA-L中,2020年。B. Yang,J。Zhang,V。Pong,S。Levine,D。Jayaraman。 “替换:一个可再现的低成本基准基准平台,用于机器人学习。”在ICRA,2019年。 T. Liao,G。Wang,B。Yang,R。Lee,K。Pister,S。Levine,R。Calandra。 “微生物的形态学和控制器的数据有效学习”。在ICRA,2019年。 B. Yang,G。Wang,R。Calandra,D。Contreras,S。Levine,K。Pister。 “学习微型机器人的灵活性和可重复使用的运动原语。”在ICRA和RA-L中,2018年。B. Yang,J。Zhang,V。Pong,S。Levine,D。Jayaraman。“替换:一个可再现的低成本基准基准平台,用于机器人学习。”在ICRA,2019年。T. Liao,G。Wang,B。Yang,R。Lee,K。Pister,S。Levine,R。Calandra。 “微生物的形态学和控制器的数据有效学习”。在ICRA,2019年。 B. Yang,G。Wang,R。Calandra,D。Contreras,S。Levine,K。Pister。 “学习微型机器人的灵活性和可重复使用的运动原语。”在ICRA和RA-L中,2018年。T. Liao,G。Wang,B。Yang,R。Lee,K。Pister,S。Levine,R。Calandra。“微生物的形态学和控制器的数据有效学习”。在ICRA,2019年。B. Yang,G。Wang,R。Calandra,D。Contreras,S。Levine,K。Pister。 “学习微型机器人的灵活性和可重复使用的运动原语。”在ICRA和RA-L中,2018年。B. Yang,G。Wang,R。Calandra,D。Contreras,S。Levine,K。Pister。“学习微型机器人的灵活性和可重复使用的运动原语。”在ICRA和RA-L中,2018年。
高级军士长 Raymond J. Farren,美国陆军宪兵团。1956 年 1 月 6 日至 1959 年 3 月 16 日。 少校 Robert L. Gabaray,美国陆军通信兵团。1955 年 5 月 26 日至 1908 年 12 月 1 日。 一级准尉,W-4,Ha1·V. Ha1'ison,美国陆军副官团。1956 年 3 月 80 日至 1959 年 2 月 20 日。 高级军士长 Antlwny J. Remkus,美国陆军。1955 年 1 月 12 日至 1959 年 4 月 80 日。 中校 William D. Sy
1。NOWISIS数据如何影响学习的接触动态?H.J.Terry Suh,M。Simchowitz,T。Pang,R。Tedrake IROS 2023研讨会:学习符合基于模型的操纵方法,并掌握2。与梯度打击不确定性:通过扩散得分与H.J.Terry Suh,G。Chou,H。Dai,L。Yang,A。Gupta,R。Tedrake机器人学习会议(CORL),2023 3.种子:6D中的串联弹性末期效果用于Visuotactile工具使用H.J.Terry Suh,N。Kuppuswamy,T。Pang,P。Mitiguy,A。Alspach,R。Tedrake国际智能机器人和系统会议(IROS),2022年,4。可区分的模拟器会提供更好的政策梯度吗?H.J.Terry Suh,M。Simchowitz,K。Zhang,R。Tedrake国际机器学习会议(ICML),2022年,Long Talk,杰出纸张奖5.在策略优化中使用可区分的模拟器进行访问量填充的操作H.J.Terry Suh,M。Simchowitz,K。Zhang,T。Pang,R。Tedrake ICRA 2022车间:RL操纵6。线性模型在对象桩操纵中的线性模型的令人惊讶的有效性H.J.Terry Suh,R。Tedrake算法XIV(WAFR),347-363,2020 7。多模式混合运动H.J.Terry Suh,X。Xiong,A。Singletary,A.D。Ames,J.W。 Burdick IEEE国际智能机器人与系统会议(IROS),2020 8。 朝着面向人形的运动写作A. Stoica,H.J。 Terry Suh,S.M。Terry Suh,X。Xiong,A。Singletary,A.D。Ames,J.W。Burdick IEEE国际智能机器人与系统会议(IROS),2020 8。朝着面向人形的运动写作A. Stoica,H.J。Terry Suh,S.M。Terry Suh,S.M。Hewitt,S。Bechtle,A。Gruebler,Y。IwashitaIEEE国际系统,人与控制论的国际会议(SMC),2017年
•具有以对象为中心的空间关注的表示形式:我们开发了新的视觉语言代表2; 3; 3允许轻松推断和向机器人提供有关其进度(“值函数”)向图像或语言目标的反馈,例如“将碗放在盘式架上”。使用离线增强学习4在人类视频上进行培训,允许在诸如厨房之类的真实环境中转移到机器人操作中。并联,我们已经建立了一个预先培训的对象无监督的代表,这些家族在许多粒度上捕获场景,允许下游演员动态组装与任务相关的最小表现,以使学习者能够更好地参加与任务相关的clutter and niffers tribles trimpers trimpers trains nibers trains trains nibers trains nraber nibers niber sribly nraiss nraby n traise n d – 9:e.g.,我们,我们可以启动。分类时间是执行复杂的任务,例如涉及分步食谱的“煮茄子”。•暂时关注决策和学习:代表的下游,决策可以受益于在任务学习和执行过程中对关键瞬间的选择性关注。在预测和计划中趋向于未来的关键事件10; 11和空间区域12减轻复合错误,改善图像目标达到任务绩效,并更好地转移给新机器人。对于实时动态任务,例如在杂乱的设置中移动对象抓住对象,我们已经成功训练了元控制器,这些元控制器动态确定计划执行13之前要做的“计划”(地平线和计算时间)要做。一个机器人可以通过首先学习如何检查是否紧绷来学习如何拧紧螺钉。适用于过去的经验,时间关注改善动态模型和政策学习4; 14-16:例如,当培训专注于机器人在其不久的将来最有可能经历的经验类型时,在增强学习中学习的动态模型会更好地工作。15。•细心的传感和探索:传感也带来了权衡:传感器调解可用机器人的所有环境信息,但需要资源成本。我们已经训练了机器人,从战略上通过主动传感和探索来感知任务相关信息17-22:我们已经展示了机器人如何通过这种互动23来自我评估他们的任务进展,以通过加强学习来改善自己(最佳纸张奖,CORL 2022);例如一旦培训了政策,就不再需要支票政策及其额外费用。通过掌握的这种效率提高了效率,也可以通过其他方式实现:我们已经证明,在训练时,机器人可以通过巧妙利用访问“特权”传感器的访问来学习从更少的感觉输入24中进行操作。我们现在正在研究机器人学习者的感官需求的基础:例如,我们已经表明,在部分可观察性下基于模型的控制的基本限制也预测了学识渊博的机器人策略的难度和样本复杂性25。