名称:Mohri,Mehryar,作者。| Rostamizadeh,Afshin,作者。| Talwalkar,Ameet,作者。标题:机器学习的基础 / Mehryar Mohri,Afshin Rostamizadeh和Ameet Talwalkar。描述:第二版。|马萨诸塞州剑桥:麻省理工学院出版社,[2018] |系列:自适应计算和机器学习系列|包括书目参考和索引。标识者:LCCN 2018022812 | ISBN 9780262039406(精装:Alk。纸)主题:LCSH:机器学习。|计算机算法。分类:LCC Q325.5 .M64 2018 | DDC 006.3/1--DC23 LC记录可从https://lccn.loc.gov/2018022812
机器学习中的中心假设是观察结果是独立的,并且是分布的(i.i.d.)关于固定但未知的概率分布。在此假设下,已经提出了对高级算法设计中模型的可学习性或导致的阐述(Boser等,1992)。但是,在许多实际应用中,收集的数据可以取决于I.I.D。假设不存在。社区中有关数据的依赖性以及如何依赖的方式进行了广泛的讨论(Dehling和Philipp,2002; Amini and Usunier,2015年)。使用相互依存的数据学习。近年来建立依赖设定的概括理论已引起人们的兴趣(Mohri和Rostamizadeh,2008,2009; Ralaivola et al,2010; Kuznetsov and Mohri,2017)。在这个方向上的一项主要研究线模拟了各种类型的混合模型的数据依赖性,例如α-混合(Rosen- Blatt,1956年),β-混合(Volkonskii和Rozanov,1959年),φ -Mixing(ibragimov,1962)和η-混合(Kontorovich(Kontorovich),以及2007年,以及2007年,以及2007年,以及2007年)。混合模型已在统计学习理论中使用,以建立基于Rademacher复杂性(Mohri和Rostamizadeh,2009,2010; Kuznetsov and Mohri,2017)或算法稳定性(Mohri和Ros-Tamizadeh和Ros-Tamizadeh,2008,2008,2008; He Hean,2008; He Hean Indepental commution and kont and kont and kont and kont and kont and kont and kont and kont and kont and kont,技术(Yu,1994)。在这些模型中,混合系数在数据之间测量了数据之间的依赖性。另一项工作线(称为脱钩),通过分解一组依赖性随机变量来研究复杂系统的行为
参考:1。Dan W. Patterson,“人工智能与专家系统概论”,Pearson Education,2007年2。 Kevin Night,Elaine Rich和Nair B.,“人工智能”,McGraw Hill,2008年3。 Patrick H. Winston,“人工智能”,第三版,皮尔逊教育,2006年4。 Deepak Khemani,“人工智能”,Tata McGraw Hill教育,2013年(http://nptel.ac.in/)5。 Christopher M. Bishop,“模式识别和机器学习”,Springer,2006年。 6。 汤姆·米切尔(Tom Mitchell),“机器学习”,麦格劳·希尔(McGraw Hill),第三版,1997年。 7。 Charu C. Aggarwal,“数据分类算法和应用程序”,CRC出版社,2014年8。 Mehryar Mohri,Afshin Rostamizadeh,Ameet Talwalkar,“机器学习的基础”,麻省理工学院出版社,2012年。 9。 Ian Goodfellow,Yoshua Bengio,Aaron Courville,“深度学习”,麻省理工学院出版社,2016年Dan W. Patterson,“人工智能与专家系统概论”,Pearson Education,2007年2。Kevin Night,Elaine Rich和Nair B.,“人工智能”,McGraw Hill,2008年3。Patrick H. Winston,“人工智能”,第三版,皮尔逊教育,2006年4。Deepak Khemani,“人工智能”,Tata McGraw Hill教育,2013年(http://nptel.ac.in/)5。Christopher M. Bishop,“模式识别和机器学习”,Springer,2006年。6。汤姆·米切尔(Tom Mitchell),“机器学习”,麦格劳·希尔(McGraw Hill),第三版,1997年。7。Charu C. Aggarwal,“数据分类算法和应用程序”,CRC出版社,2014年8。Mehryar Mohri,Afshin Rostamizadeh,Ameet Talwalkar,“机器学习的基础”,麻省理工学院出版社,2012年。9。Ian Goodfellow,Yoshua Bengio,Aaron Courville,“深度学习”,麻省理工学院出版社,2016年Ian Goodfellow,Yoshua Bengio,Aaron Courville,“深度学习”,麻省理工学院出版社,2016年
参考:1。Dan W. Patterson,“人工智能与专家系统概论”,Pearson Education,2007年2。 Kevin Night,Elaine Rich和Nair B.,“人工智能”,McGraw Hill,2008年3。 Patrick H. Winston,“人工智能”,第三版,皮尔逊教育,2006年4。 Deepak Khemani,“人工智能”,Tata McGraw Hill教育,2013年(http://nptel.ac.in/)5。 Christopher M. Bishop,“模式识别和机器学习”,Springer,2006年。 6。 汤姆·米切尔(Tom Mitchell),“机器学习”,麦格劳·希尔(McGraw Hill),第三版,1997年。 7。 Charu C. Aggarwal,“数据分类算法和应用程序”,CRC出版社,2014年8。 Mehryar Mohri,Afshin Rostamizadeh,Ameet Talwalkar,“机器学习的基础”,麻省理工学院出版社,2012年。 9。 Ian Goodfellow,Yoshua Bengio,Aaron Courville,“深度学习”,麻省理工学院出版社,2016年Dan W. Patterson,“人工智能与专家系统概论”,Pearson Education,2007年2。Kevin Night,Elaine Rich和Nair B.,“人工智能”,McGraw Hill,2008年3。Patrick H. Winston,“人工智能”,第三版,皮尔逊教育,2006年4。Deepak Khemani,“人工智能”,Tata McGraw Hill教育,2013年(http://nptel.ac.in/)5。Christopher M. Bishop,“模式识别和机器学习”,Springer,2006年。6。汤姆·米切尔(Tom Mitchell),“机器学习”,麦格劳·希尔(McGraw Hill),第三版,1997年。7。Charu C. Aggarwal,“数据分类算法和应用程序”,CRC出版社,2014年8。Mehryar Mohri,Afshin Rostamizadeh,Ameet Talwalkar,“机器学习的基础”,麻省理工学院出版社,2012年。9。Ian Goodfellow,Yoshua Bengio,Aaron Courville,“深度学习”,麻省理工学院出版社,2016年Ian Goodfellow,Yoshua Bengio,Aaron Courville,“深度学习”,麻省理工学院出版社,2016年
教科书: 1. Stuart Russell 和 Peter Norvig,“人工智能——一种现代方法”,第四版,Pearson Education,2021 年。 2. Ethem Alpaydin,“机器学习简介”,麻省理工学院出版社,第四版,2020 年。 参考文献: 1. Dan W. Patterson,“人工智能和专家系统简介”,Pearson Education,2007 年 2. Kevin Night、Elaine Rich 和 Nair B.,“人工智能”,McGraw Hill,2008 年 3. Patrick H. Winston,“人工智能”,第三版,Pearson Education,2006 年 4. Deepak Khemani,“人工智能”,Tata McGraw Hill Education,2013 年(http://nptel.ac.in/) 5. Christopher M. Bishop,“模式识别和机器学习”,Springer,2006 年。 6. Tom Mitchell,“机器学习”,McGraw Hill,第 3 版,1997 年。 7. Charu C. Aggarwal,“数据分类算法和应用”,CRC Press,2014 年 8. Mehryar Mohri、Afshin Rostamizadeh、Ameet Talwalkar,“机器学习基础”,MIT Press,2012 年。 9. Ian Goodfellow、Yoshua Bengio、Aaron Courville,“深度学习”,MIT Press,2016 年
3 - / - /3(R20A0518)机器学习单元 - I简介:机器学习简介,监督学习,无监督学习,增强学习。深度学习。特征选择:过滤器,包装器,嵌入式方法。特征归一化: - 最小最大归一化,z得分归一化和恒定因子归一化降低降低:主成分分析(PCA),线性判别分析(LDA)单元 - II监督学习 - I(回归/分类)回归模型:简单线性回归,多线性回归。成本函数,梯度下降,性能指标:平均绝对误差(MAE),均方根误差(MSE)R平方错误,调整后的R平方。Classification models: Decision Trees-ID3, CART, Naive Bayes, K-Nearest-Neighbours (KNN), Logistic Regression, Multinomial Logistic Regression Support Vector Machines (SVM) - Nonlinearity and Kernel Methods UNIT – III Supervised Learning – II (Neural Networks) Neural Network Representation – Problems – Perceptrons, Activation Functions, Artificial Neural Networks (ANN) , Back Propagation 算法。卷积神经网络 - 卷积和合并层,复发性神经网络(RNN)。分类指标:混淆矩阵,精度,召回,准确性,F-SCORE,ROC曲线单元 - IV模型验证:交叉验证 - 保留方法,k折,分层k fold,剩余的交叉验证。偏见变化权衡,正规化,过度拟合,不足。合奏方法:提升,包装,随机森林。教科书:1。2。3。3。4。单元 - V无监督的学习:聚类-K均值,K模型,K-蛋白型,高斯混合模型,期望最大化。强化学习:探索和剥削权衡取舍,非社交学习,马尔可夫决策过程,Q学习。机器学习 - Saikat Dutt,Subramanian Chandramouli,Amit Kumar Das,Pearson。机器学习的基础,Mehryar Mohri,Afshin Rostamizadeh,Ameet Talwalkar,麻省理工学院出版社。凯文·墨菲(Kevin Murphy),机器学习:概率的观点,麻省理工学院出版社,2012年参考书:1。Trevor Hastie,Robert Tibshirani,Jerome Friedman,《统计学习要素》,Springer2009 2。克里斯托弗·毕晓普(Christopher Bishop),《模式识别与机器学习》,施普林格,2007年。机器学习向往,Andrew Ng。数据挖掘 - 概念和技术-Jiawei Han和Micheline Kamber,Morgan Kaufmann