尽管现有的fMRI到图像重建方法可以预测高质量的图像,但它们并未明确考虑训练和测试数据之间的语义差距,从而导致具有不稳定和不确定语义的重建。本文通过明确减轻语义差距来解决广义fMRI到图像重建的问题。具体来说,我们利用预先训练的剪辑模型将训练数据映射到紧凑的特征表示形式,该图表将训练数据的稀疏语义扩展到密集数据,从而避免了附近已知概念的实例(即训练超级杆)的语义差距。受FMRI数据中强大的低级表示的启发,这可以帮助减轻远离已知概念(即在培训超级阶级之外)的情况的语义差距,我们利用结构信息作为一般提示来指导图像重建。此外,我们基于概率密度估计来提出语义不确定性,并通过在扩散过程中自适应地整合e xpanded s emantics和s弹性信息(GESS),从而实现了g耗电fMRI到图像的重建。实验结果表明,所提出的GESS模型优于最先进的方法,我们提出了一种广义的场景拆分策略,以评估GESS在缩小语义差距方面的优势。我们的代码可在https://github.com/duolala1/gess上找到。
主要关键词