缩写:AADC,芳香族 L-氨基酸脱羧酶;AAV,腺相关病毒;ALS,肌萎缩侧索硬化症;APOE,载脂蛋白 E;ASO,反义寡核苷酸;ATXN2,共济失调蛋白 2;BBB,血脑屏障;BSCB,血脊髓屏障;CDKL5,细胞周期蛋白依赖性激酶样 5;CNS,中枢神经系统;CRISPR,成簇的规律间隔的短回文重复序列;CSF,脑脊液;DRPLA,齿状红核苍白球路易体萎缩;FTD,额颞痴呆;FUS,聚焦超声;FXTAS,脆性 X 相关震颤/共济失调综合征;GABA,γ-氨基丁酸;GAD,谷氨酸脱羧酶;GAG,糖胺聚糖; GAN,巨轴突性神经病;GBA,葡萄糖脑苷脂酶;GCH,三磷酸鸟苷环化水解酶;GDNF,胶质细胞源性神经营养因子;ICis,脑池内;ICV,脑室内;IPa,脑实质内;IT,鞘内(腰椎);IV,静脉内;LacNAc,硫酸化N-乙酰乳糖胺;MAO,单胺氧化酶;miRNA,微小RNA;MLD,异染性脑白质营养不良;MPS,粘多糖贮积症;MRgFUS,磁共振成像引导聚焦超声;MRI,磁共振成像;MSA,多系统萎缩;NCL,神经元蜡样脂褐素沉积症;NGF,神经生长因子;NTN,神经营养素;PDHD,丙酮酸脱氢酶缺乏症;Put,壳核; rAAV,重组腺相关病毒;RNAi,RNA 干扰;siRNA,短干扰 RNA,小干扰 RNA;SMA,脊髓性肌萎缩;SMARD,脊髓性肌萎缩伴呼吸窘迫;SNc,黑质致密部;SOD1,超氧化物歧化酶 1;Str,纹状体;TDP-43,TAR DNA 结合蛋白 43;TERT,端粒酶逆转录酶;TH,酪氨酸羟化酶;Th,丘脑;VTA,腹侧被盖区;ZFN,锌指核酸酶。 * 通讯作者:德克萨斯大学达拉斯分校,800 West Campbell Road, EW31, Richardson, TX 75080, USA。电子邮箱地址:Zhenpeng.Qin@utdallas.edu (Z. Qin)。
摘要知识表示和推理的计算机科学领域(KRR)旨在像人类一样有效地理解,推理和解释知识。由于该领域的许多逻辑形式主义和推理方法已经表明了高阶学习的能力,例如抽象概念学习,将人工神经网络(ANN)与KRR方法集成到用于学习复杂和实用任务的KRR方法引起了很多关注。例如,神经张量网络(NTN)是神经网络模型,能够将符号表示为矢量空间,在这些模型中可以通过矩阵计算进行推理。当在逻辑张量网络(LTN)中使用时,它们能够将一阶逻辑符号(例如常数,事实和规则)嵌入到实值张量中。KRR和ANN的整合提出了将神经科学中的生物学灵感带入KRR的潜在途径。但是,高阶学习并不是人类大脑的独有性。昆虫,例如果蝇和蜜蜂,可以解决简单的关联学习任务,并学习抽象概念,例如“相同”和“差异”,这被视为高阶认知功能,通常被认为取决于自上而下的新皮层处理。用果蝇的实证研究强烈支持,即在昆虫大脑的嗅觉加工中使用了随机代表性结构。基于这些结果,我们提出了一个随机加权的特征网络(RWFN),该特征网络将随机绘制的未经训练的权重纳入编码器,该编码器使用适应性线性模型作为解码器。单个隐藏层神经网络在RWFN中模仿输入神经元和高阶处理中心之间的随机投影,该神经网络在RWFN中模仿,该神经网络使用kernel近似在输入之间更好地表示输入之间的复杂关系。由于这种特殊表示形式,RWFN可以通过仅训练线性解码器模型有效地学习输入之间的关系程度。我们将RWFN与LTN的性能进行比较,用于语义图像解释(SII)任务,这些任务被用作LTN如何利用一阶逻辑上的推理以超越仅数据驱动方法的性能的代表性示例。我们证明,与LTN相比,RWFN可以在对象分类和检测SII任务中对象之间的关系方面取得更好或类似的性能,同时使用更少的可学习参数(1:62比例)和更快的学习过程(1:2的运行速度比率)。此外,我们表明,由于随机权重不取决于数据,因此有几个解码器可以共享一个随机编码器,从而使RWFN具有独特的空间量表经济体,用于同时分类任务。
摘要知识表示和推理的计算机科学领域(KRR)旨在像人类一样有效地理解,推理和解释知识。由于该领域的许多逻辑形式主义和推理方法已经表明了高阶学习的能力,例如抽象概念学习,将人工神经网络(ANN)与KRR方法集成到用于学习复杂和实用任务的KRR方法引起了很多关注。例如,神经张量网络(NTN)是神经网络模型,能够将符号表示为矢量空间,在这些模型中可以通过矩阵计算进行推理。当在逻辑张量网络(LTN)中使用时,它们能够将一阶逻辑符号(例如常数,事实和规则)嵌入到实值张量中。KRR和ANN的整合提出了将神经科学中的生物学灵感带入KRR的潜在途径。但是,高阶学习并不是人类大脑的独有性。昆虫,例如果蝇和蜜蜂,可以解决简单的关联学习任务,并学习抽象概念,例如“相同”和“差异”,这被视为高阶认知功能,通常被认为取决于自上而下的新皮层处理。用果蝇的实证研究强烈支持,即在昆虫大脑的嗅觉加工中使用了随机代表性结构。基于这些结果,我们提出了一个随机加权的特征网络(RWFN),该特征网络将随机绘制的未经训练的权重纳入编码器,该编码器使用适应性线性模型作为解码器。单个隐藏层神经网络在RWFN中模仿输入神经元和高阶处理中心之间的随机投影,该神经网络在RWFN中模仿,该神经网络使用kernel近似在输入之间更好地表示输入之间的复杂关系。由于这种特殊表示形式,RWFN可以通过仅训练线性解码器模型有效地学习输入之间的关系程度。我们将RWFN与LTN的性能进行比较,用于语义图像解释(SII)任务,这些任务被用作LTN如何利用一阶逻辑上的推理以超越仅数据驱动方法的性能的代表性示例。我们证明,与LTN相比,RWFN可以在对象分类和检测SII任务中对象之间的关系方面取得更好或类似的性能,同时使用更少的可学习参数(1:62比例)和更快的学习过程(1:2的运行速度比率)。此外,我们表明,由于随机权重不取决于数据,因此有几个解码器可以共享一个随机编码器,从而使RWFN具有独特的空间量表经济体,用于同时分类任务。