Loading...
机构名称:
¥ 1.0

项目说明恢复场景的属性,例如许多计算机视觉和计算机图形应用程序中的形状,材料和照明属性是至关重要的任务。此任务称为逆渲染,它可以启用对象插入[1],场景重新定义[2]和场景编辑[3]。在学习场景的3D表示方面的最新进展显示出令人印象深刻的新型合成结果,例如NERF [4]和3D高斯裂口[5]。但是,由于场景属性被烘烤到辐射字段中,这些表示不可重复 /可编辑。许多最先进的解决方案[6,7,8]提出了反向渲染管道,使这些3D表示可以编辑。尽管取得了这种进步,但当前的方法通常与铸造阴影,镜头亮点和其他复杂的照明相互作用困难。基于扩散的生成模型[9]已成为一种有希望的视觉生成方法。扩散模型可以更改许多图像方面,例如图像样式[10]或将前景对象融合到背景[11],重新贴上场景[12],编辑特定对象的颜色[13]等。这种适应性强调了扩散模型有效地学习和操纵各种内在场景的潜力,包括材料和照明条件,同时维持光真相。它们在编辑任务中的用法会导致灵活的表示形式,从而可以操纵场景属性[14,15]。此实习将着重于开发利用扩散模型的方法来解开和操纵内在的场景属性,包括材料和照明。实习生将探索新颖的方法,以产生完全可编辑且可重新确定的表示形式。特定目标包括:

利用扩散模型的可靠和可编辑场景

利用扩散模型的可靠和可编辑场景PDF文件第1页

利用扩散模型的可靠和可编辑场景PDF文件第2页