摘要:从大型多任务演示数据集中学习的模仿学习已成为构建普通能力的机器人的有前途的途径。结果,已经花费了1000个小时来在全球构建如此大规模的数据集上。尽管这种努力不断增长,但我们仍然缺乏对应收集哪些数据来改善机器人数据集的效用的系统性理解,并促进了下游政策学习。在这项工作中,我们进行了一项大规模的数据集组成研究,以回答这个问题。我们开发了一个数据生成框架,以在实际数据集(例如传感器放置,对象类型和安排)中模拟普通多样性,并使用它来生成具有控制组成的大规模机器人数据集,从而实现了在现实世界中会昂贵的数据集组成研究。我们专注于两个实际设置:(1)当未来的研究人员收集大规模的机器人数据集时,应强调哪种类型的多样性,以及(2)当前的从业人员如何从现有数据集中检索相关的演示以最大程度地提高关注任务的下游政策绩效。我们的研究产生了几个关键见解 - 例如,我们发现相机的姿势和空间排列是收集多样性和检索对齐方式的关键维度。在现实世界的机器人学习设置中,我们发现,不仅可以从模拟中进行洞察力,而且我们对现有数据集(例如Droid)的检索策略使我们能够始终如一地超过现有的培训策略高达70%。https://mimiclabs-iclr.github.io/
应用程序级虚拟化正变得越来越流行。它允许应用程序的多个实例在同一个Android系统上同时运行,而无需修改Android固件。全球有超过1亿用户使用这些具有虚拟化功能的应用程序。我们对应用程序级虚拟化的实现及其用户可能面临的安全威胁进行了系统的研究。首先,我们调查了从几个可以提供应用程序虚拟化功能的流行应用市场收集的160多个应用程序。我们发现这些应用程序是基于类似的设计实现的,并且在这样的虚拟环境中运行的应用程序彼此之间并不是完全隔离的。其次,我们分析了恶意的虚拟化客户应用程序,并确定了几个潜在的攻击媒介领域,包括特权提升、代码注入、勒索软件等。恶意的虚拟化客户应用程序可以发起引用劫持攻击。一旦合法应用程序在虚拟环境中运行,其所有敏感数据都将暴露给主机应用程序。第三,我们发现了一种新型的重新打包攻击。在我们收集的200万个应用程序数据集中,我们发现68个应用程序利用虚拟化技术打包并加载恶意软件以逃避杀毒软件的检测,91个应用程序打包一些合法应用程序以进行广泛传播,并在启动时插入屏幕广告以牟利。最后,我们讨论了针对用户、开发者和供应商的各种缓解解决方案。