对于多元签名方案,公共密钥的大小主要取决于变量的数量,方程数和有限字段的大小。取决于不同的影响因素,有不同的研究方法来开发UOV变体。第一种方法不会改变UOV方案的原始设计,而只会改变关键生成的方式。Petzoldt等人开发的压缩技术[23]基于以下事实:公共密钥的一部分可以在生成秘密密钥之前任意选择。这意味着可以使用伪随机数生成器的种子来生成公共密钥的一部分,公共密钥的大小主要取决于油空间的尺寸,方程数和有限端的大小。请注意,该技术可以应用于各种UOV变体。第二种方法是使用在小型场上定义的多项式作为公钥,而在扩展字段上定义了签名和消息空间,请参见[5]中的luov。,但其几个参数被Ding等人打破了。[12]。第三种方法是降低密钥生成步骤中石油空间的尺寸。在符号步骤中,他们使用不同的方法从原始的油空间诱导新的油空间,以使新的油空间的尺寸更大或等于方程数,例如QR-UOV [15],Mayo [3],Snova [28]。QR-UOV [15]的作者在扩展场上构建了油空间,然后通过痕量函数或张量产品将其映射到基础字段上的矢量空间中,另请参见[18]。[16]。在基本场上定义了签名和消息空间。BAC-UOV [25]与QR-UOV相似,但Furue等人打破了。对于蛋黄酱[3],它们通过搅动油和醋地图P:f n
CO1 Understand the concepts of Vector space and inner-product spaces CO2 Apply the linear algebra concepts in approximations and matrix decompositions CO3 Understand functions of several variables, gradients relevant for machine learning CO4 Apply optimization techniques in real life problems CO5 Acquire sound mathematical aspects of machine learning Syllabus: Linear Algebra : Vector spaces, linear independence, basis, linear transformations,坐标,线性变换,仿射空间,仿射映射的矩阵表示;内部产物空间 - 矢量空间上的内部产品和规范,长度,角度,正交补充,投影,最小平方近似,革兰氏schmidt过程,旋转;矩阵分解 - cholesky分解,特征分解和对角线化,奇异值分解;微积分和优化:几个变量的函数,矩阵的梯度,用于计算梯度的有用身份,反向传播和自动分化,深网中的梯度,线性化和多元泰勒级数;使用梯度下降,使用Lagrange乘数,凸优化的梯度下降优化 - 凸集,凸功能,线性编程,二次编程,legendre -fenchel transform,并凸出机器学习中的数学方面:线性回归和参数估计;降低降低 - 主成分分析,线性判别分析;高斯混合模型的密度估计;用支持向量机的分类 - 分离超平面,原始和双支持向量机,内核;学习资源:教科书:1。机器学习的数学,马克·彼得·迪森罗斯(Mark Peter Deisenroth),A。AldoFaisal和Cheng ong ong,剑桥大学出版社,2020年参考书:1。线性代数,Stephen H. Friedberg,Arnold J. Insel和Lawrence E. Spence,Pearson,2019年,第五版2。线性代数和从数据中学习,吉尔伯特·斯特朗线性代数和用于机器学习的优化,Charu C. Aggarwal,Springer,2020
否积分:4单位I特殊功能:笛卡尔,圆柱形和球形极性坐标中Helmholtz方程的分离。Legendre函数:Legendre多项式,Rodrigue的公式;生成功能和递归关系;正交性和归一化;相关的Legendre功能,球形谐波。贝塞尔函数:第一类的贝塞尔函数,递归关系,正交性hermite函数:Hermite多项式,生成函数,递归关系;正交性。laguerre函数:laguerre和相关的Lauguerre多项式,递归关系;正交性。特殊功能在物理问题上的应用。10小时II单元矩阵:矢量空间和子空间,线性依赖性和独立性,基础和维度,革兰氏链式正交程序,正交,遗传学以及单位矩阵,特征值和特征值,eigenvectors,eigenvelors and eigenenvectors,ignalvelors of Matrices,diagonalization of Matrices,类似的物理化,应用程序,应用程序,应用于物理问题。积分变换:傅立叶变换:定义,傅立叶积分;逆变换;衍生物的傅立叶变换;卷积,parseval的定理;申请。拉普拉斯变换:定义,基本函数的变换,逆变换;派生的变换;变换的分化和整合;卷积定理;差分方程的解决方案;物理问题。物理中的张量。应用于分子光谱。10小时10小时单元III张量:线性空间,曲线坐标及其转换中的坐标转换;张量的定义和类型,逆转和协变量张量,对称和反对称张量,张量代数:平等,加法和减法,张量乘法,外产物;索引,内部产品,商定理,kronecker三角洲的收缩,张量的降低和升高,公制张量;基督教符号。10小时单位IV组理论:小组,子组和类;同构和同构,群体表示,可简化和不可约形的表示,Schur的引理,正交定理,表现形式,角色表的强度,将可还原的表现分解为不可减至的表征,代表性的构建,代表性的构建,谎言组,谎言组,旋转组,SO(2)等(3)。
摘要知识表示和推理的计算机科学领域(KRR)旨在像人类一样有效地理解,推理和解释知识。由于该领域的许多逻辑形式主义和推理方法已经表明了高阶学习的能力,例如抽象概念学习,将人工神经网络(ANN)与KRR方法集成到用于学习复杂和实用任务的KRR方法引起了很多关注。例如,神经张量网络(NTN)是神经网络模型,能够将符号表示为矢量空间,在这些模型中可以通过矩阵计算进行推理。当在逻辑张量网络(LTN)中使用时,它们能够将一阶逻辑符号(例如常数,事实和规则)嵌入到实值张量中。KRR和ANN的整合提出了将神经科学中的生物学灵感带入KRR的潜在途径。但是,高阶学习并不是人类大脑的独有性。昆虫,例如果蝇和蜜蜂,可以解决简单的关联学习任务,并学习抽象概念,例如“相同”和“差异”,这被视为高阶认知功能,通常被认为取决于自上而下的新皮层处理。用果蝇的实证研究强烈支持,即在昆虫大脑的嗅觉加工中使用了随机代表性结构。基于这些结果,我们提出了一个随机加权的特征网络(RWFN),该特征网络将随机绘制的未经训练的权重纳入编码器,该编码器使用适应性线性模型作为解码器。单个隐藏层神经网络在RWFN中模仿输入神经元和高阶处理中心之间的随机投影,该神经网络在RWFN中模仿,该神经网络使用kernel近似在输入之间更好地表示输入之间的复杂关系。由于这种特殊表示形式,RWFN可以通过仅训练线性解码器模型有效地学习输入之间的关系程度。我们将RWFN与LTN的性能进行比较,用于语义图像解释(SII)任务,这些任务被用作LTN如何利用一阶逻辑上的推理以超越仅数据驱动方法的性能的代表性示例。我们证明,与LTN相比,RWFN可以在对象分类和检测SII任务中对象之间的关系方面取得更好或类似的性能,同时使用更少的可学习参数(1:62比例)和更快的学习过程(1:2的运行速度比率)。此外,我们表明,由于随机权重不取决于数据,因此有几个解码器可以共享一个随机编码器,从而使RWFN具有独特的空间量表经济体,用于同时分类任务。
摘要知识表示和推理的计算机科学领域(KRR)旨在像人类一样有效地理解,推理和解释知识。由于该领域的许多逻辑形式主义和推理方法已经表明了高阶学习的能力,例如抽象概念学习,将人工神经网络(ANN)与KRR方法集成到用于学习复杂和实用任务的KRR方法引起了很多关注。例如,神经张量网络(NTN)是神经网络模型,能够将符号表示为矢量空间,在这些模型中可以通过矩阵计算进行推理。当在逻辑张量网络(LTN)中使用时,它们能够将一阶逻辑符号(例如常数,事实和规则)嵌入到实值张量中。KRR和ANN的整合提出了将神经科学中的生物学灵感带入KRR的潜在途径。但是,高阶学习并不是人类大脑的独有性。昆虫,例如果蝇和蜜蜂,可以解决简单的关联学习任务,并学习抽象概念,例如“相同”和“差异”,这被视为高阶认知功能,通常被认为取决于自上而下的新皮层处理。用果蝇的实证研究强烈支持,即在昆虫大脑的嗅觉加工中使用了随机代表性结构。基于这些结果,我们提出了一个随机加权的特征网络(RWFN),该特征网络将随机绘制的未经训练的权重纳入编码器,该编码器使用适应性线性模型作为解码器。单个隐藏层神经网络在RWFN中模仿输入神经元和高阶处理中心之间的随机投影,该神经网络在RWFN中模仿,该神经网络使用kernel近似在输入之间更好地表示输入之间的复杂关系。由于这种特殊表示形式,RWFN可以通过仅训练线性解码器模型有效地学习输入之间的关系程度。我们将RWFN与LTN的性能进行比较,用于语义图像解释(SII)任务,这些任务被用作LTN如何利用一阶逻辑上的推理以超越仅数据驱动方法的性能的代表性示例。我们证明,与LTN相比,RWFN可以在对象分类和检测SII任务中对象之间的关系方面取得更好或类似的性能,同时使用更少的可学习参数(1:62比例)和更快的学习过程(1:2的运行速度比率)。此外,我们表明,由于随机权重不取决于数据,因此有几个解码器可以共享一个随机编码器,从而使RWFN具有独特的空间量表经济体,用于同时分类任务。