摘要我们介绍了Mesogan,这是一种生成3D神经纹理的模型。通过结合生成对抗网络(stylegan)和体积神经场渲染的优势,这种新的图形原始形式代表了中尺度的出现。原始性可以用作神经反射率壳的表面;表面上方的薄体积层,其外观参数由神经网络定义。为了构建神经外壳,我们首先使用带有仔细随机傅立叶特征的stylegan生成2D特征纹理,以支持任意尺寸的纹理而无需重复伪影。我们以学习的高度功能增强了2D功能纹理,这有助于神经场渲染器从2D纹理产生体积参数。为了促进过滤,并在当前硬件的内存约束中启用端到端培训,我们使用了层次结构纹理方法,并将模型训练在3D中尺度结构的多尺度合成数据集上。我们提出了一种在艺术参数上调节Mesogan的可能方法(例如,纤维长度,链的密度,照明方向),并演示并讨论整合基于物理的渲染器。
The Code Commission wished to thank the following Members for providing written comments for the WOAH Terrestrial Animal Health Code (hereinafter ‘the Terrestrial Code' ) : Argentina, Australia, Brazil, Canada, China (People's Republic of), Chinese Taipei, Colombia, Japan, New Caledonia, New Zealand, Norway, Singapore, South Africa, Switzerland, Thailand, the United Kingdom (UK), the United States of America (美国),沃阿美洲地区的成员,欧盟的成员国(EU)和非洲联盟跨非洲动物资源局(AU-IBAR)代表WOAH的非洲成员。委员会还希望感谢以下组织提供的评论:国际农场动物福利联盟(ICFAW),国际鸡蛋委员会(IEC),世界渲染器组织(WRO),并感谢WOAH科学网络众多专家的宝贵建议和贡献。
摘要 - 在机器人学习的领域,高维观测值(例如RGB图像和低级机器人动作)之间的复杂映射,两个本质上非常不同的空间构成了一个复杂的学习问题,尤其是在有限的数据中。在这项工作中,我们介绍了一种使用机器人3D模型的虚拟渲染器在图像空间内统一的低级机器人动作和RGB观察的方法。使用此联合观察表达表示,它使用学习的扩散过程计算低级机器人动作,该过程迭代地更新机器人的虚拟渲染。此空间统一简化了学习问题,并引入了对样品效率和空间概括至关重要的电感偏差。我们在模拟中彻底评估了研发的几种变体,并展示了它们在现实世界中六个日常任务上的适用性。我们的结果表明,研发具有强大的空间概括能力,并且比更常见的图像到动作方法更有效。
endcript 2是一款友好的Web服务器,用于以符合方式提取和渲染对第四纪蛋白质结构信息的全面分析。这一重大升级已全面设计,以通过交互式3D可视化提高速度,准确性和USABIL。它需要对我们众所周知的序列比对渲染器Espript的新版本3进行优势,以减少计算时间来处理大量数据。从单个PDB输入或文件中,端目构图显示出与查询同源的蛋白质多种蛋白质对齐的高质量图,并根据残基保守性颜色。此外,还描述了实验二级结构元素以及一组相关的生物物理和结构数据。现在,所有这些信息和更多信息都在交互式3D Pymol表示上映射。多亏了其自适应和严格的算法,专家用户的初学者可以将设置修改为满足他们的需求。endcript也已被升级为开放平台,用于可视化来自外部Biotool Web服务器的多个生化和结构数据,并具有2D和3D表示。endcript 2和es- pript 3分别在http://endscript.ibcp.fr和http://espript.ibcp.fr上免费获得。
非正式部门构成了发展中国家的经济活动中很大一部分。非正式产量可能分别达到发展中国家国内生产总值的三分之二,非正式就业和非正式公司的份额可能分别高达劳动力和商业部门的80%(Schneider and Enste 2000; Ulyssea 2018)。非正式经济的难以定义引起了非正式活动的不同衡量标准,因为该概念与未注册以避免监管标准的公司并不严格相关,也是正式公司倾向于低报告收入和雇用工人以避免税收和劳动劳动法规的趋势。因此,这种行为导致完全或部分违反税收和劳动法规。理解非正式经济的程度和复杂性很重要,原因是:1)减少的税收征收刺激了进一步的税收不合规行为和降低的公共服务质量; 2)税不遵守会影响工人和公司的工作和投资的决策; 3)在很大程度上,不遵守规定需要用于执法能力的资源和投资,以减轻非规定行为; 4)它对收入分配的影响是不可预测的,5)它影响了宏观经济统计的准确性,这可能导致政策不良1,而6)非正式和未宣布的工作渲染器工人,而没有任何国际劳动劳动标准和国家立法所保障的任何或不足的保护和权利。
我们考虑通过文本指导将几何细节添加到3D对象网格的问题。文本到3D生成建模已成功应用于计算机视觉[Poole等。2023;张等。2024],计算机图形[Khalid等。2022]和地理处理[Gao等。2023; Xu等。2024]应用。这些方法着重于直接从文本中生成3D网格[Poole等。2023; Wang等。2023]没有为用户提供控制输出形状粗糙结构的能力,从而限制了需要仔细控制生成过程的艺术家的实际实用性。其他方法着重于生成3D网格的纹理[Cao等。2023;理查森等。2023],但它们在几何形状上没有执行任何变化。虽然有一些方法[Gao等。2023; Metzer等。2023]向用户提供控制并能够修改给定形状的几何形状,这些方法通常很慢,因为它们依赖于昂贵的得分蒸馏采样[Poole等。2023]。在本文中,我们提出了一种创建3D对象与丰富几何细节的方法,同时允许用户保留对全局形状结构(通过输入粗网格)和本地几何细节(通过输入文本提示)的控制。随着文本引导的生成方法的最新成功[Metzer等。2023; Poole等。2023;理查森等。2023; Wang等。2024;张等。2023],我们在大型预训练的文本对图模型上构建了我们的方法[Rombach等。2022]并使用语言指导几何细节的生成。我们的公式不需要配对的粗几何图和细几何训练数据,而是使用大型预训练的文本对图像模型作为监督,以指导通过可区分的渲染器添加几何细节的过程。我们的主要见解源于以下事实:训练以深度信息指导的文本对图像生成的模型[Mou等。2023]最终创建包含其他几何提示的图像。如图2所示,这些提示是如此突出,即使是现成的正常估计模型也可以提取它们。即,即使小鼠图像仅从三个球体产生,其正常估计(最右图像)显示了与描绘眼睛,鼻子和耳朵的表面相对应的正态。但是,此过程只能从单个角度创建可见的细节,而我们希望将细节添加到给定形状的整个可见表面。我们的方法在三个阶段中将几何详细信息添加到输入网格中。第一阶段基于输入文本提示和输入粗网格生成单视RGB图像。此RGB图像可以看作是如何将其添加到输入网格的几何详细信息的预览。第二阶段根据第一阶段和输入粗网格的单视输出进行多视图生成。第三阶段根据第二阶段的多视图生成来完善输入网格的几何细节。由于每个阶段的输出是非提交的,人类可理解的图像或效果图,因此此属性允许在完成之前的早期瞬间,以便用户决定更改参数或返回并更改/修改输入。此外,前两个阶段仅涉及运行预训练网络的推断,最后阶段直接在网格上运行。每个阶段都可以在几秒钟内完成,因此允许我们的方法用于支持