摘要:当今,人工智能在很大程度上依赖于使用大型数据集和改进的机器学习方法,这些方法涉及利用基于大型数据集的分类和推理算法。这些大维度会引起许多违反直觉的现象,通常导致对许多通常以小数据维度的直觉设计的机器学习算法的行为理解不佳。通过利用多维框架(而不是受其影响),随机矩阵理论 (RMT) 能够预测许多非线性算法(如某些神经网络)的性能。随机,以及许多核方法,如如SVM、半监督分类、主成分分析或谱聚类。为了从理论上表征这些算法的性能,底层数据模型通常是高斯混合模型(GMM),考虑到真实数据(例如图像)的复杂结构,这似乎是一个强有力的假设。此外,机器学习算法的性能取决于它们所应用的数据表示(或特征)的选择。再次,将数据表示视为高斯向量似乎是一个相当严格的假设。本论文以随机矩阵理论为基础,旨在超越简单的 MMG 假设,通过研究具有普遍性的集中随机向量假设下的经典机器学习工具