第 35 卷 第 8 期 计算机辅助设计与图形学学报 Vol.35 No.8 2023 年 8 月 Journal of Computer-Aided Design & Computer Graphics Aug. 2023
Cheraghian 等人 [ 21 – 23 ] 在零样本 3 维模型分类方 面提出了 3 维点云的零样本学习方法、缓解 3 维零样 本学习中枢纽点问题的方法和基于直推式零样本学 习的 3 维点云分类方法,并将它们封装进一个全新 的零样本 3 维点云方法 [ 24 ] 中。以上方法均是利用已 知类样本的点云表征及其词向量对未知类别进行分 类,开创了零样本 3 维模型分类方法。近年来, CLIP 在零样本图像分类上取得了良好的效果,因此有研 究者将 CLIP 应用到零样本 3 维模型分类方法中, Zhang 等人 [ 25 ] 提出了基于 CLIP 的 3 维点云理解 (Point cloud understanding by CLIP, PointCLIP) 模型, PointCLIP 首先将 3 维点云投影成多个深度图,然 后利用 CLIP 的预训练图像编码器提取深度图特 征,同时将类别名称通过 CLIP 预先训练的文本编 码器提取文本特征。但是 PointCLIP 的性能受到深 度图和图像之间的域差异以及深度分布的多样性限 制。为了解决这一问题,基于图像 - 深度图预训练 CLIP 的点云分类方法 (transfer CLIP to Point cloud classification with image-depth pre-training, CLIP2Point) [ 26 ] 将跨模态学习与模态内学习相结合 训练了一个深度图编码器。在分类时,冻结 CLIP 的图像编码器,使用深度图编码器提取深度图特 征,该方法缓解了深度图和图像间的模型差异。用 于 3 维理解的图像 - 文本 - 点云一致性表征学习方法 (learning Unified representation of Language, Im- age and Point cloud for 3D understanding, ULIP) [ 27 ] 构建了一个图像、文本和点云 3 种模态的 统一嵌入空间,该方法利用大规模图像 - 文本对预 训练的视觉语言模型,并将 3 维点云编码器的特征 空间与预先对齐的视觉 - 文本特征空间对齐,大幅 提高了 3 维模型的识别能力。与之相似的是,基于 提示文本微调的 3 维识别方法 (CLIP Goes 3D, CG3D) [ 28 ] 同样使用 3 元组形式确保同一类别的 3 维模 型特征和图像特征之间以及 3 维模型特征和文本特 征之间存在相似性,从而使点云编码器获得零样本 识别的能力。另外, PointCLIP V2 [ 29 ] 在 Point- CLIP 的基础之上,通过利用更先进的投影算法和 更详细的 3 维模型描述,显着提高了零样本 3 维模型 分类准确率。本文采用语义增强 CLIP 解决图像和文 本的语义鸿沟问题,通过在语义层面为图像和文本 提供更多相似的语义信息,使图像和文本对齐更具有 一致性,从而有效提高 3 维模型的零样本分类性能。 2.2 提示工程
通过执行命令检查 A380 工作:$ sudo dmesg | grep -i i915 [ 0.000000] 命令行:BOOT_IMAGE=/boot/vmlinuz-5.17.0-1020-oem root=UUID=23d72ad5-e494-44da-ad13-2c3127ce1860 ro i915.force_probe=* i915.enable_guc=3 [ 0.035899] 内核命令行:BOOT_IMAGE=/boot/vmlinuz-5.17.0-1020-oem root=UUID=23d72ad5-e494-44da-ad13-2c3127ce1860 ro i915.force_probe=* i915.enable_guc=3 …… [ 2.305108] i915 0000:03:00.0:[drm] 已完成加载 DMC 固件 i915/dg2_dmc_ver2_07.bin (v2.7) [2.313768] i915 0000:03:00.0:[drm] GuC 固件 i915/dg2_guc_70.6.2.bin 版本 70.6.2 [2.313771] i915 0000:03:00.0:[drm] HuC 固件 i915/dg2_huc_7.10.3_gsc.bin 版本 7.10.3 [2.325970] i915 0000:03:00.0:[drm] GuC 提交已启用……
Applause 是众包测试和数字质量领域的全球领导者。软件是所有品牌吸引用户的核心,数字体验必须在任何地方都完美无缺。Applause 拥有全球各地随时可用的经过严格审查的测试人员,为品牌提供了全套测试和反馈功能。这种方法大大提高了测试覆盖率,消除了离岸外包和传统 QA 实验室的限制,并加快了网站、移动应用、物联网和店内体验的上市时间。
网上有很多平台可用于训练人工智能模型。大多数平台的工作方式类似。您输入数据(可以通过上传或使用网络摄像头拍摄图像),然后训练模型,最后进行测试以确保其准确性。选择使用哪个平台取决于您的项目以及您在训练模型后想要用模型做什么。它们都允许您创建对事物进行分类或归类的 AI 模型,这就是它们被称为分类系统的原因。
图 1. 深度学习网络输出的示例,其中找到并掩盖了鱼的横截面图像中的内脏器官(红褐色)。该图像来自 CompleteSCAN 项目,丹麦技术研究所 DMRI 对整条鲑鱼进行了 CT 扫描,并开发了深度学习算法来自动查找和去除内脏、头部和鱼鳍,以确定鱼片的产量。深度学习的日益普及,部分原因是该技术在执行图像分析方面非常有效,而使用传统的图像分析技术进行图像分析会非常复杂和困难,部分原因是近年来主要科技公司已经开发并提供用于设计、训练和执行深度学习网络的工具(例如谷歌的 TensorFlow 和 Facebook 的 PyTorch)。要从头开始训练深度学习图像分析网络,必须使用数十万张带注释图像形式的参考数据。那是。图片中说明了图片中的内容,并且通常还说明了它在图片中的位置。幸运的是,通常可以从
NVIDIA EGX™ 平台使企业 IT 能够在高性能且经济高效的基础设施上提供完整的 AI 解决方案。该平台基于 NVIDIA 认证系统(由高性能 GPU 和高速、安全的 NVIDIA ® Mellanox ® 网络组成的企业级服务器)由我们的合作伙伴构建和销售。NVIDIA EGX 平台通过标准化单一统一架构以实现轻松的管理、部署、操作和监控,使客户能够为未来做好准备,同时降低成本。
(https://www.docomo.ne.jp/corporate/technology/rd/openhouse/openhouse2023/)
您可以通过多种方式注释数据点。因此,您标记数据点的方式会导致所需数据点数量的显著变化。假设我们有 1,000 个句子的输入数据。对于情绪分析,您可能只会将每个句子标记为一次,即积极、消极或中性。但是,对于实体提取,您可能在每个句子中标记五个单词。尽管拥有相同的原始数据,但一个任务产生的标签比另一个多五倍。如果一个数据点可以包含大量标签,那么您可能可以使用较小的整体数据集。