研究生研究助理2017年8月 - 2024年8月•领导多个研究项目,架构系统解决方案,以增强功能安全性,增强系统安全性以及在网络物理和实时系统系统中提高临时可预测性,重点介绍自动层面和空中汽车。在这里链接了一个介绍研究成就。•通过开发感知单纯形式,在自动型地面车辆中可验证的感知安全性,这是一种系统体系结构,可在操作设计域内促进可验证的障碍物检测和确定性碰撞避免。使用开放式工业模拟框架对安全保证进行了分析和验证。•适应了通风的感知,同时通过紧密整合低级别的控制以动态确认系统的控制功能,而不是假定静态最差的壳,从而改善了其性能。•认识到缺乏上下文意识的指标用于自动驾驶中的对象检测,创建了风险排名召回。该度量差异基于对象的安全性影响。•tobringsecurityAuditingToreal -Timesystems,创建了省略号。在省点的themerentherentpresplicational -timeApplications,Ellipsis优化了实时应用程序的Linux审核。省略号几乎消除了典型操作期间审核事件损失的可能性,并在保留安全性信息的同时大大减少了审核数据量(> 90%)。•引入了一种新的内存类型,内部不可访问,外部可缓存,授权实时应用程序绕过高速缓存相干机制并减轻内存访问延迟可变性,可选择性地用于共享数据,对私人数据没有影响。在Linux内核和GEM5模拟器上引起的原型降低了52%的最差延迟,对性能的影响可忽略不计。•在处理器内核和硬件加速器之间设计了一个基于刮擦板的合作执行模型,在支持灵活的功能的同时,实现了与整体固定功能硬件加速器的类似能量和延迟效率。•帮助设计了针对实际应用程序的安全意识的任务计划,从而最大程度地减少了基于后计划的基于后计划对实时系统的影响。•有助于开发用于对象检测神经网络的输入优先级方案,从而克服了此类解决方案固有的优先级反转。
博士后研究助理2024年10月 - 目前•设计协同的单纯形系统体系结构,利用安全性和关键任务元素之间的合作来增强自主地面和航空车的安全性和性能。•作为合作努力的一部分,包括来自NASA的工业合作伙伴,设计和开发Airtaxisim,这是一种逼真的软件 - 自动乘坐出租车的环境模拟框架。研究生研究助理2017年8月 - 2024年8月•领导多个研究项目,架构系统解决方案,以增强功能安全性,增强系统安全性以及在网络物理和实时系统系统中提高临时可预测性,重点介绍自动层面和空中汽车。•引入了一种新的内存类型,内部不可访问,外部可缓存,授权实时应用程序绕过高速缓存相干机制并减轻内存访问延迟可变性,可选择性地用于共享数据,对私人数据没有影响。在Linux内核和GEM5模拟器上引起的原型降低了52%的最差延迟,对性能的影响可忽略不计。•在处理器内核和硬件加速器之间设计了一个基于刮擦板的合作执行模型,在支持灵活的功能的同时,实现了与整体固定功能硬件加速器的类似能量和延迟效率。•通过开发感知单纯形式,在自动型地面车辆中可验证的感知安全性,这是一种系统体系结构,可在操作设计域内促进可验证的障碍物检测和确定性碰撞避免。使用开放式工业模拟框架对安全保证进行了分析和验证。•适应了通风的感知,同时通过紧密整合低级别的控制以动态确认系统的控制功能,而不是假定静态最差的壳,从而改善了其性能。•认识到缺乏上下文意识的指标用于自动驾驶中的对象检测,创建了风险排名召回。该度量差异基于对象的潜在安全性影响。•tobringsecurityAuditingToreal -Timesystems,创建了省略号。在省点的themerentherentpresplicational -timeApplications,Ellipsis优化了实时应用程序的Linux审核。省略号几乎消除了典型操作期间审核事件损失的可能性,并在保留安全性信息的同时大大减少了审核数据量(> 90%)。•帮助开发了一个用于对象检测神经网络的输入优先级方案,该方案克服了固有的优先倒置和对实时应用程序的安全意识任务计划,从而最大程度地降低了基于后期计划的攻击类的影响。
《福布斯》杂志,2024年8月1日,www.forbes.com/sites/sites/sarwantsingh/2024/07/22/top-trends-trends-driving-driving-triving-the-the-the-the-the-the-the-the-the-the-the-auto-the-auto-into-intustry/#:〜: 2C600%20 car%20年。
我渴望在一家知名学术机构找到一份有发展前景的工作,该机构能为我提供与团队合作的机会,该团队对不断变化的知识和技术世界充满热情,并具有为个人和整个团队的整体表现做出贡献的努力精神。积极性高、灵活、勤奋,拥有丰富的技术经验,了解社会未来发展,能够按时完成任务并应对压力。
通过cerkl基因突变看到的引起视网膜营养不良的北印度人口班萨尔*(1,2,3),debojyoti chakraborty(1)(1)(1)CSIR-基因组学和综合生物学研究所,德里,(2)景点研究,fortis Indiperies,fortis Indies Indive Isporties Indive Isporties Indive Indive Indive Indive Isporties Indive Indiperies,Instriped Isporties Indive Isporties Indive Isporties Indive Isporties Indive Isportion*临床特征,CERKL基因突变的基因型表型相关性,这是我们在印度北部的同类中看到的遗传性视网膜营养不良(IRD)患者的最常见基因突变之一。 材料和方法:研究包括临床诊断患有IRD的患者。 患者进行了超广阔的菲尔德(UWF)眼底照片,眼底自动荧光(FAF),光学相干断层扫描(OCT)。 完成了谱系图表。 下一代测序(NGS)进行遗传测试,分析了临床外显子组。 结果:我们报告了35例选择接受遗传测序的35例CERKL基因突变患者的眼科和遗传发现(在我们的62名22名IRD患者中)。 年龄从17至45岁(中位数25岁)不等。 视觉范围从logmar 0.18到1.8。 OCT显示出103至268微米的中央黄斑厚度(CMT)。 多数患者的眼底表现出黄斑色素的变化,其萎缩,消除或有限的周围视网膜色素变化;轻度的视盘苍白和最小的血管衰减。 在黄斑处的斑点低荧光是最常见的发现,视网膜周围的低自露倍率最小。通过cerkl基因突变看到的引起视网膜营养不良的北印度人口班萨尔*(1,2,3),debojyoti chakraborty(1)(1)(1)CSIR-基因组学和综合生物学研究所,德里,(2)景点研究,fortis Indiperies,fortis Indies Indive Isporties Indive Isporties Indive Indive Indive Indive Isporties Indive Indiperies,Instriped Isporties Indive Isporties Indive Isporties Indive Isporties Indive Isportion*临床特征,CERKL基因突变的基因型表型相关性,这是我们在印度北部的同类中看到的遗传性视网膜营养不良(IRD)患者的最常见基因突变之一。材料和方法:研究包括临床诊断患有IRD的患者。患者进行了超广阔的菲尔德(UWF)眼底照片,眼底自动荧光(FAF),光学相干断层扫描(OCT)。完成了谱系图表。遗传测试,分析了临床外显子组。结果:我们报告了35例选择接受遗传测序的35例CERKL基因突变患者的眼科和遗传发现(在我们的62名22名IRD患者中)。年龄从17至45岁(中位数25岁)不等。视觉范围从logmar 0.18到1.8。OCT显示出103至268微米的中央黄斑厚度(CMT)。多数患者的眼底表现出黄斑色素的变化,其萎缩,消除或有限的周围视网膜色素变化;轻度的视盘苍白和最小的血管衰减。在黄斑处的斑点低荧光是最常见的发现,视网膜周围的低自露倍率最小。所有患者的遗传测序均显示出相同的突变,在CERKL基因的外显子7(CHR2:G.181548785_181548786DEL)中是2个碱基对缺失。偶然,所有患有CERKL基因突变的患者均来自一个族裔群落,提示创始人突变效应。结论:CERKL基因结果中的突变是印度北部IRD的最常见原因之一。受影响的患者显示出明确的早期黄斑受累。这项研究报告了在印度北部一个大种族社区中Cerkl基因中的创始人突变效应的存在。关键词:创始人突变,CERKL基因突变,基因型表型相关,遗传性视网膜营养不良(IRD),色素性视网膜炎(RP)
[C27] Han Lin *,Jaemin Cho *,Abhay Zala和Mohit Bansal。“ CTRL-ADAPTER:一个有效且通用的框架,用于将各种控件适应任何扩散模型”。ICLR(口头)。 2025。 [project] [Paper] [代码]。 [C26] Zaid Khan,Elias Stengel-Eskin,Jaemin Cho和Mohit Bansal。 “ DataEnvgym:具有学生反馈的教师环境中的数据生成代理”。 ICLR(聚光灯)。 2025。 [project] [Paper] [排行榜] [代码]。 [C25] Jialu Li *,Jaemin Cho *,Yi-lin Sung,Jaehong Yoon和Mohit Bansal。 “ SELMA:学习和合并技能 - 特定文本对象专家与自动生成数据”。 神经。 2024。 [project] [Paper] [代码]。 [C24] Abhay Zala *,Jaemin Cho *,Han Lin,Jaehong Yoon和Mohit Bansal。 “ Envgen:通过LLM生成和适应环境以进行训练体现的代理人”。 Colm。 2024。 [project] [Paper] [代码]。 [C23] Abhay Zala,Han Lin,Jaemin Cho和Mohit Bansal。 “图表:通过LLM计划生成开放域的开放式平台图”。 Colm。 2024。 [project] [Paper] [代码]。 [C22] Han Lin,Abhay Zala,Jaemin Cho和Mohit Bansal。 “ VideodirectorGpt:通过LLM指导计划一致的多场景视频生成”。 Colm。 2024。 [project] [Paper] [代码]。 [C21] Heesoo Jang和Jaemin Cho。 “对大语言模型的偏见和危害的评估”。 2024。 [纸]。ICLR(口头)。2025。[project] [Paper] [代码]。[C26] Zaid Khan,Elias Stengel-Eskin,Jaemin Cho和Mohit Bansal。“ DataEnvgym:具有学生反馈的教师环境中的数据生成代理”。ICLR(聚光灯)。2025。[project] [Paper] [排行榜] [代码]。[C25] Jialu Li *,Jaemin Cho *,Yi-lin Sung,Jaehong Yoon和Mohit Bansal。“ SELMA:学习和合并技能 - 特定文本对象专家与自动生成数据”。神经。2024。[project] [Paper] [代码]。[C24] Abhay Zala *,Jaemin Cho *,Han Lin,Jaehong Yoon和Mohit Bansal。“ Envgen:通过LLM生成和适应环境以进行训练体现的代理人”。Colm。 2024。 [project] [Paper] [代码]。 [C23] Abhay Zala,Han Lin,Jaemin Cho和Mohit Bansal。 “图表:通过LLM计划生成开放域的开放式平台图”。 Colm。 2024。 [project] [Paper] [代码]。 [C22] Han Lin,Abhay Zala,Jaemin Cho和Mohit Bansal。 “ VideodirectorGpt:通过LLM指导计划一致的多场景视频生成”。 Colm。 2024。 [project] [Paper] [代码]。 [C21] Heesoo Jang和Jaemin Cho。 “对大语言模型的偏见和危害的评估”。 2024。 [纸]。Colm。2024。[project] [Paper] [代码]。[C23] Abhay Zala,Han Lin,Jaemin Cho和Mohit Bansal。“图表:通过LLM计划生成开放域的开放式平台图”。Colm。 2024。 [project] [Paper] [代码]。 [C22] Han Lin,Abhay Zala,Jaemin Cho和Mohit Bansal。 “ VideodirectorGpt:通过LLM指导计划一致的多场景视频生成”。 Colm。 2024。 [project] [Paper] [代码]。 [C21] Heesoo Jang和Jaemin Cho。 “对大语言模型的偏见和危害的评估”。 2024。 [纸]。Colm。2024。[project] [Paper] [代码]。[C22] Han Lin,Abhay Zala,Jaemin Cho和Mohit Bansal。“ VideodirectorGpt:通过LLM指导计划一致的多场景视频生成”。Colm。 2024。 [project] [Paper] [代码]。 [C21] Heesoo Jang和Jaemin Cho。 “对大语言模型的偏见和危害的评估”。 2024。 [纸]。Colm。2024。[project] [Paper] [代码]。[C21] Heesoo Jang和Jaemin Cho。“对大语言模型的偏见和危害的评估”。2024。[纸]。国际传播协会(ICA)(高级论文奖)。[C20] Yasumasa onoe,Sunayana Rane,Zachary Berger,Yonatan Bitton,Jaemin Cho,Roopal Garg,Alexander Ku,Zarana Parekh,Jordi Pontuset,Jordi Pont-Tuset,Garrett Tanzer,Su Wang和Jason Baldridge。“ docci:连接和对比图像的描述”。ECCV。 2024。 [Project] [Paper] [DataSet]。 [C19] David Wan,Jaemin Cho,Elias Stengel-Eskin和Mohit Bansal。 “对比区域指导:在没有训练的情况下改善视觉模型的接地”。 ECCV。 2024。 [project] [Paper] [代码]。 [C18] Qin Liu,Jaemin Cho,Mohit Bansal和Marc Niethammer。 “以低潜伏期,高质量和不同的提示来重新思考交互式图像分割”。 CVPR。 2024。 [project] [Paper] [代码]。 [C17] Jaemin Cho,Yushi Hu,Roopal Garg,Peter Anderson,Ranjay Krishna,Jason Baldridge,Mohit Bansal,Jordi Pont-Tuset和Su Wang。 “ Davidsonian场景图:在文本到图像生成的细粒度评估中提高可靠性”。 ICLR。 2024。 [project] [Paper] [代码]。 [C16] Jaemin Cho,Abhay Zala和Mohit Bansal。 “用于文本到图像生成和评估的视觉编程”。 神经。 2023。 [project] [Paper] [VPGEN代码] [VPEVAL代码]。 [C15] Shoubin Yu,Jaemin Cho,Prateek Yadav和Mohit Bansal。 “用于视频本地化和问题回答的自链图像模型”。 神经。 2023。ECCV。2024。[Project] [Paper] [DataSet]。[C19] David Wan,Jaemin Cho,Elias Stengel-Eskin和Mohit Bansal。“对比区域指导:在没有训练的情况下改善视觉模型的接地”。ECCV。 2024。 [project] [Paper] [代码]。 [C18] Qin Liu,Jaemin Cho,Mohit Bansal和Marc Niethammer。 “以低潜伏期,高质量和不同的提示来重新思考交互式图像分割”。 CVPR。 2024。 [project] [Paper] [代码]。 [C17] Jaemin Cho,Yushi Hu,Roopal Garg,Peter Anderson,Ranjay Krishna,Jason Baldridge,Mohit Bansal,Jordi Pont-Tuset和Su Wang。 “ Davidsonian场景图:在文本到图像生成的细粒度评估中提高可靠性”。 ICLR。 2024。 [project] [Paper] [代码]。 [C16] Jaemin Cho,Abhay Zala和Mohit Bansal。 “用于文本到图像生成和评估的视觉编程”。 神经。 2023。 [project] [Paper] [VPGEN代码] [VPEVAL代码]。 [C15] Shoubin Yu,Jaemin Cho,Prateek Yadav和Mohit Bansal。 “用于视频本地化和问题回答的自链图像模型”。 神经。 2023。ECCV。2024。[project] [Paper] [代码]。[C18] Qin Liu,Jaemin Cho,Mohit Bansal和Marc Niethammer。“以低潜伏期,高质量和不同的提示来重新思考交互式图像分割”。CVPR。2024。[project] [Paper] [代码]。[C17] Jaemin Cho,Yushi Hu,Roopal Garg,Peter Anderson,Ranjay Krishna,Jason Baldridge,Mohit Bansal,Jordi Pont-Tuset和Su Wang。“ Davidsonian场景图:在文本到图像生成的细粒度评估中提高可靠性”。ICLR。 2024。 [project] [Paper] [代码]。 [C16] Jaemin Cho,Abhay Zala和Mohit Bansal。 “用于文本到图像生成和评估的视觉编程”。 神经。 2023。 [project] [Paper] [VPGEN代码] [VPEVAL代码]。 [C15] Shoubin Yu,Jaemin Cho,Prateek Yadav和Mohit Bansal。 “用于视频本地化和问题回答的自链图像模型”。 神经。 2023。ICLR。2024。[project] [Paper] [代码]。[C16] Jaemin Cho,Abhay Zala和Mohit Bansal。“用于文本到图像生成和评估的视觉编程”。神经。2023。[project] [Paper] [VPGEN代码] [VPEVAL代码]。[C15] Shoubin Yu,Jaemin Cho,Prateek Yadav和Mohit Bansal。“用于视频本地化和问题回答的自链图像模型”。神经。2023。[Paper] [代码]。[C14] Zhenhailong Wang,Ansel Blume,Sha Li,Genglin Liu,Jaemin Cho,Zineng Tang,Mohit Bansal和Heng Ji。“ paxion:在视频语言基础模型中修补动作知识”。神经(聚光灯)。2023。[Paper] [代码]。
▶Nagarjun Bhat,Agrim Gupta,Ishan Bansal,Harine Govindarajan,Dinesh Bharadia。 div>2024。zensetag:RFID辅助双标签单
Arora, Dipti;Bansal, Alka;Kumar, Nishant;和 Suri, Alka,“通过应用人工智能振兴图书馆”(2020 年)。图书馆哲学与实践(电子期刊)。3630。https://digitalcommons.unl.edu/libphilprac/3630