苏丹卡布斯大学 计算机科学系 COMP6113:高级人工智能,2017 年秋季 讲师:Hamza 博士,分机:1407,房间:0020,电子邮件:zidoum@squ.edu.om 上课时间:周一/周三 14:15-15:35 SCI/0005 办公时间:张贴在办公室门口 教科书:神经网络与深度学习。迈克尔·尼尔森。2017 年 8 月 [免费在线书籍] 参考书:AI:一种现代方法,作者 S. Russel 和 P. Norvig,Prentice-Hall。评论:Yann LeCun、Yoshua Bengio 和 Geoffrey Hinton,深度学习。2015 年 5 月 28 日 | 第 521 卷 | 自然 | 436-444 课程描述:本课程的主要目标是让学生熟悉人工智能涵盖的广泛主题,以及对一些特定主题和算法的深度和经验。我们还向学生介绍人工智能的最新发展和研究问题。这种方法力求在了解知识和能够在以后进行更多研究之间取得平衡,并具备一些实践经验,使用尖端人工智能算法来解决实际问题。学习成果:课程结束后,学员有望能够:
不受位置变化的影响。生物控制论,36(4),193-202。 https://doi.org/10.1007/BF 00344251 Goodfellow, I.、Bengio, Y. 和 Courville, A. (2016)。深度学习。麻省理工学院出版社。 (Schmidt、I. Schiffman、Y. Schaefer、A. 化学工程师和仪器仪表(2018)Graves、A.、Wayne、G. 和 Danihelka、I.(2014)。神经图灵机。 arXiv。 Ha, D. 和 Schmidhuber, J. (2018)。世界模特。 arXiv。 https://arxiv.org/abs/1803.10122 Han, K., Wang, Y., Chen, H., Chen, X., Guo, J., Liu, Z., Tang, Y., Xiao, A., Xu, C., Xu, Y., Yang, Z., Zhang, Y., & Tao, D. (2020 年)。关于视觉变压器的调查。 arXiv。 https://arxiv.org/abs/2012.12556 Higgins, I., Amos, D., Pfau, D., Racaniere, S., Matthey, L., Rezende, D., 和 Lerchner, A. (2018)。迈向解开表征的定义。 arXiv。 https://archiv. org/abs/1812.02230 美国国立卫生研究院(AI)(2020 年)。 2020 年人工智能市场:5 年历史的人工智能创新和 5 年历史的临床试验 LeCun, Y., Bengio, Y., & Hinton, G. (2015 年)。深度学习。自然,521,436-444。 http://dx.doi.org/10.1038/nature 14539 Mansimov, E., Parisotto, E., Ba, JL 和 Salakhutdinov, R. (2015)。利用注意力机制根据标题生成图像。 arXiv。 https://archiv.org/abs/1511.02793 纽约(2015 年)。 我的一位朋友是角川家族的成员(2016年)(2016年)。 http://dx.doi.org/10.1037/0033-295X.101.1.13 McCulloch, WS 和 Pitts, W. (1943)。神经活动中蕴含的观念的逻辑演算。数学生物物理公报,5(4),115-133。 https://doi.org/10.1007/BF02478259 Nakkiran, P.、Kaplun, G.、Bansal, Y.、Yang, T.、Barak, B. 和 Sutskever, I. (2019)。深度双重下降:更大的模型和更多的数据会带来危害。 arXiv。 https://arxiv.org/abs/ 1912.02292 Perez, J.、Marinkovic, J. 和 Barcelo, P.(2019 年 5 月 6-9 日)。论现代神经网络架构的图灵完备性。 ICLR 2019:第七届学习表征国际会议。路易斯安那州新奥尔良。美国。 Radford , A.、Kim , JW、Hallacy , C.、Ramesh , A.、Goh , G.、Agarwal , S.、Sastry , G.、Askell , A.、Mishkin , P.、Clark , J.、Krueger , G. 和 Sutskever , I. (2021)。从自然语言监督中学习可转移的视觉模型。 arXiv。 https://arxiv.org/abs/2103.00020 Ramachandran, P., Zoph, B., 和 Le, QV (2017)。寻找激活函数。 arXiv。 https://arxiv.org/abs/ 1710.05941 Razavi, A., van the Word, A. 和 Vinyals, O. (2019)。使用 VQ-VAE-2 生成各种高保真图像arXiv。 https://arxiv.org/abs/1906.00446 Reed, S.、Akata, Z.、Yan, X.、Logeswaran, L.、Schiele, B. 和。
Miles Brundage 1† , Shahar Avin 3,2† , Jasmine Wang 4,29†‡ , Haydn Belfield 3,2† , Gretchen Krueger 1† , Gillian Hadfield 1,5,30 , Heidy Khlaaf 6 , Helen Runing , 7 th Fong 9 , Tegan Maharaj 4.28 , Pang Wei Koh 10 , Sara Hooker 11 , Jade Leung 12 , Andrew Trask 9 , Emma Bluemke 9 , Jonathan Lebensold 4.29 , Cullen O'Keefe 1 , Mark Koren 13 , Thé Ryff 14 , B. B. B. roglu 16 , Federica Carugati 17 , Jack Clark 1 , Peter Eckersley 7 , Sarah de Haas 18 , Maritza Johnson 18 , Ben Laurie 18 , Alex Ingerman 18 , Igor Krawczuk 19 , Amanda Askell 1 , Rosario Cammarota , Andrew Krueger 21 , David Kruger 27 lotte Stix 22 , Peter Henderson 10 , Logan Graham 9 , Carina Prunkl 12 , Bianca Martin 1 , Elizabeth Seger 16 , Noa Zilberman 9 , Seán Ó hÉigeartaigh 2,3 , Frens Kroeger 23 , Girish Sastry 1 , Rebecca Karian , 16 , Brian Well 12.7 , Elizabeth Barnes 1 , Allan Dafoe 12.9 , Paul Scharre 25 , Ariel Herbert-Voss 1 , Martijn Rasser 25 , Shagun Sodhani 4.27 , Carrick Flynn 8 , Thomas Krendl Gilbert 26 , Lisa Dyer 7 , Khan Khan , 27 us Anderljung 12
Yoshua Bengio Mila -Quebec AI研究所,蒙特罗张教大学AI国际治理研究所,张教大学shai Shaiv-Shalev-Shwartz,耶路撒冷吉利安·吉利安·哈德菲尔德大学多伦多,施瓦茨·雷斯曼学院。技术与社会,矢量研究所。不列颠哥伦比亚省杰夫·克莱恩大学,载体学院Tegan Maharaj大学多伦多大学,Schwartz Reisman Inst。技术与社会,矢量研究所。Frank Hutter Ellis Institute t ubingen,弗里伯格·阿利姆·吉纳斯大学卖出牛津·希拉·希拉·希拉·麦克拉斯大学多伦多,施瓦茨·雷斯曼学院。技术与社会,矢量研究所。Qiqi Gao东部中国政治学与法律大学Ashwin Acharya Rand公司David Krueger剑桥大学ANCA DRAGAN DRAGAN UC BERKELEY UC BERKELEY PHILIP UNIOPYS OXFORD FORDER OXFORD StUART Stuart Russell UC Berkeley Daniel Daniel Daniel Kahneman公立与国际事务学院学院,大学Qiqi Gao东部中国政治学与法律大学Ashwin Acharya Rand公司David Krueger剑桥大学ANCA DRAGAN DRAGAN UC BERKELEY UC BERKELEY PHILIP UNIOPYS OXFORD FORDER OXFORD StUART Stuart Russell UC Berkeley Daniel Daniel Daniel Kahneman公立与国际事务学院学院,大学
Miles Brundage 1† 、Shahar Avin 3,2† 、Jasmine Wang 4,29†‡ 、Haydn Belfield 3,2† 、Gretchen Krueger 1† 、Gillian Hadfield 1,5,30 、Klaaf Jing 67 、Helen Toner 8 , Ruth Fong 9 , Tegan Maharaj 4.28 , Pang Wei Koh 10 , Sara Hooker 11 , Jade Leung 12 , Andrew Trask 9 , Emma Bluemke 9 , Jonathan Lebensold 4.29 , Cullen O'Keefe , Mark Koren 11 13 , Théo Ryffel 14 , JB Rubinovitz 15 , Tamay Besiroglu 16 , Federica Carugati 17 , Jack Clark 1 , Peter Eckersley 7 , Sarah de Haas 18 , Maritza Johnson 18 , Ben Laurie 18 , Alex Ingerman 18 , Amanda Kraw 19 , Amanda Askew , Rosario Cammarota 20 , Andrew Lohn 21 ,大卫·克鲁格 4.27 , 夏洛特·斯蒂克斯 22 , 彼得·亨德森 10 , 洛根·格雷厄姆 9 , 卡丽娜·普伦克尔 12 , 比安卡·马丁 1 , 伊丽莎白·西格 16 , 诺亚·齐尔伯曼 9 , 塞吉安 23 , 弗伦斯·克鲁格 23 , 吉里什·萨斯特里 1 , 丽贝卡·卡根 8 , 阿德里安·韦勒 16.24 , 谢志伟 12.7 , 伊丽莎白·巴恩斯 1 , 阿兰·达福 12.9 , 保罗·沙尔 25 , 阿里尔·赫伯特-沃斯 1 , 马丁·拉瑟 25 , 沙尔根 4.27 , 卡里克·弗林 8 , 托马斯·克伦德尔·吉尔伯特 26 , 丽莎·戴尔 7 , 赛义夫·汗 8 , 约书亚·本吉奥 4.27 ,马库斯·安德永 12
到(各个方面)输入检查的统计结构,而无需映射到目标输出(例如,发现LAN Guage的语音结构中的规律性)。这些网络非常适合发现环境中存在的统计结构,而无需建模者知道结构是什么。无监督的培训方法的一个众所周知的例子是Hebb(1949)提出的学习规则:加强同时活动的单元之间的连接,如果只有一个单位活跃,则可以削弱两个单元之间的连接。尽管人工神经网络和生物神经网络之间存在表面的相似性(即,在神经元之间传递的互连性和刺激以确定它们的激活,并通过适应连接强度来学习),但这些认知模型通常并非声称在生物神经元的水平上模拟处理。相反,神经网络模型在Marr(1982)的算法级别上形成了描述,也就是说,它们指定了认知表示和操作,同时忽略了生物学实现。神经网络在1990年代经历了流行的激增,但是从21世纪初开始,它们被象征性的概率mod Els所掩盖。然而,神经网络享受了最近的复兴部分,部分原因是深度学习模型的成功,这些模型在各种人工智能任务上表现出最先进的表现(Lecun,Bengio,&Hinton,2015年)。在大多数情况下,认知建模领域仍然赶上这些新颖的发展。我们在第5节中返回此问题。因此,目前最具影响力的连接主义认知模型是更传统的变化。
深度学习(DL)通过启用由多个处理层组成的计算模型来学习数据的抽象表示,从而彻底改变了人工智能的领域(Hinton等,2006; Bengio等,2006)。传统的机器学习方法数十年来一直限制,因为需要专家知识来设计复杂的特征提取算法,这在将原始数据转换为合适的分类形式的过程中。相比之下,深层倾斜的方法作为表示学习技术,使学习模型能够直接用原始数据馈送,以发现分类所需的表示形式(Krizhevsky等,2017; Lecun等,2015)。Currently, an intensive research effort is being devoted to the development of novel neuroimaging techniques to better understand the mechanisms of the central nervous system (CNS) and to early recognize age-related neural diseases ( Payan and Montana, 2015; Sarraf and Tofighi, 2016; Martinez-Murcia et al., 2020; Martinez-Murcia et al., 2018, 2016 ) Ortiz等。。大量多中心研究提供的大量数据调查了与年龄相关的神经疾病的新生物标志物,这为开发更准确的深度学习模型提供了一个机会,以早期认识神经退行性变化以及神经疾病的渐进过程(Cole and Franke,2017; Marzban et et and e an e an Al an Al a al niz and an an an an e an e e e an and and and and and and and and and an e e e e e e e e e e e e e e e e eT an and and and and and and and and and and and and and and and and。等,2018)。
与人工智能社区的许多成员一样,我着迷地关注着符号人工智能和联结人工智能之间正在进行的讨论。符号人工智能认为,在推理和学习中使用知识对于产生智能行为至关重要,而联结人工智能则假定,从数据中学习关联(几乎不需要或完全不需要先验知识)对于理解行为至关重要。最近这两种人工智能范式之间的争论是由本世纪初联结人工智能的进步引发的,这些进步具有重要的应用价值。联结主义在面对大规模数据时所取得的技术成功,使其成为人工智能的主导范式。过去十年,这两种学派之间的对话通过学术文章(例如,LeCun、Bengio 和 Hinton,2015 年)、辩论(人工智能辩论,2017 年;人工智能辩论,2019 年)和社交媒体展开——其中社交媒体有时会引发尖锐的评论。我之所以对这场辩论如此着迷,是因为人工智能的主要问题非常重要:智能本身的性质。然而,我也发现这场辩论有点令人沮丧。原因如下。首先,我发现“符号人工智能”和“联结主义人工智能”这两个词组具有误导性。符号学派致力于知识及其在推理和学习中的应用(仅使用适度的输入数据),而不是符号本身:符号通常只代表知识抽象。同样,联结主义阵营的忠诚实际上是在几乎没有或完全没有先验知识的情况下从数据中学习关联,通常需要大规模数据。从认知科学的角度来看,符号人工智能与理性主义心智学派非常一致,后者强调
国家人工智能咨询委员会 (NAIAC) 简报会 2023 年 8 月 3 日,美国东部时间下午 12:00 - 2:00 虚拟 | 注册观看。 2023 年 8 月 3 日,星期四,东部时间下午 12:00 指定联邦官员宣布会议开始。 12:00 - 12:05 欢迎致辞 Miriam Vogel,国家人工智能咨询委员会主席 Kathy Pham,国家人工智能咨询委员会执行董事 由人工智能未来领导的简报会一:维持下一代人工智能工作组的创新 12:05 - 12:10 pm 简报目标和介绍 这将是人工智能未来:维持下一代人工智能工作组主办的几次简报会中的第一场。 12:10 - 12:25 pm 特邀发言 Yoshua Bengio,蒙特利尔大学 Francesca Rossi,IBM Stuart Russell,加州大学伯克利分校 12:25 - 12:50 pm 与 NAIAC 成员讨论 12:50 - 12:55 pm 总结 12:55 - 1:00 pm 休息简报二 由生成式与下一代人工智能:安全和保障工作组领导 1:00 - 1:05 pm 介绍简报人 生成式与下一代人工智能:安全和保障工作组 1:05 - 1:25 pm 特邀发言 Sam Gregory,证人 Abby Kukura,特别竞争研究项目 (SCSP) Percy Liang,斯坦福大学 Joelle Pineau,Meta 1:25 - 1:50 pm 与 NAIAC 成员讨论 1:50 - 2:00 pm总结和闭幕词下午 2:00 指定联邦官员休会。
本教科书基于我在哥德堡大学和瑞典哥德堡的Chalmers技术大学提供的课程人工神经网络的讲义。当我准备讲座时,我的主要来源是Hertz,Krogh和Palmer [1]对神经计算理论的介绍。其他来源是神经网络:Haykin [2]的综合基础,霍纳的讲座注释[3],Heidelberg,Goodfellow,Bengio&Courville的深度学习[4],在线书籍神经网络和Nielsen的深度学习[5]。I thank Martin ˇ Cejka for typesetting the first version of my hand-written lecture notes, Erik Werner and Hampus Linander for their help in preparing Chapter 8, Kris- tian Gustafsson for his detailed feedback on Chapter 11, Nihat Ay for his comments on Section 4.5, and Mats Granath for discussions about autoencoders.I would also like to thank Juan Diego Arango, Oleksandr Balabanov, Anshuman Dubey, Johan Fries, Phillip Gräfensteiner, Navid Mousavi, Marina Rafajlovic, Jan Schiffeler, Ludvig Storm, and Arvid Wenzel Wartenberg for implementing algorithms described in this book.许多数字基于其结果。Oleksandr Balabanov,Anshuman Dubey,Jan Meibohm,尤其是Johan Fries和Marina Rafajlovic提出了考试问题,这些问题成为了本书的练习。最后,我要感谢StellanÖstlund的鼓励和批评。最后但并非最不重要的一点是,许多同事和学生(过去和现在)指出了错误的印刷和错误,并提出了改进。我感谢他们。目前的版本不包含练习(剑桥大学出版社拥有的版权)。完整的书可从剑桥大学出版社获得。