Word2Vec explained - Assignment #5 - Udacity Deep Learning Course by Google
嗨,我确实对向量空间的工作原理有很好的理解(这要感谢我在本科和研究生院学到的所有数学知识)。但是,Udacity 深度学习课程的作业 #5 具有挑战性,它需要可视化和理解一组向量如何成功(或几乎)表示单词的概念,同时将它们并排阅读为上下文。在尝试解决作业之前,我观看了几个视频并在线阅读了大量资料。让我先用一个例子来解释这个概念。考虑一下这句话:汤米狗是我最好的朋友。作为人类,我们的理解是,这句话指的是一只名叫汤米的狗,它是作家/作者最好的朋友。你如何通过数学让机器理解这一点?答案:嵌入将上述句子中的每个单词想象成你用于关联的云 - 我想到的可视化是:<汤米><狗><最好的朋友> - 其中<>代
Sebastian Thrun: Flying Cars, Autonomous Vehicles, and Education
Sebastian Thrun 是我们这个时代最伟大的机器人专家、计算机科学家和教育家之一。他领导了斯坦福大学自动驾驶汽车的开发,该汽车赢得了 2005 年 DARPA 大挑战赛,并在 2007 年 DARPA 城市挑战赛中获得第二名。然后,他领导了谷歌自动驾驶汽车计划,掀起了自动驾驶革命。2011 年,他教授了斯坦福大学流行的人工智能课程,这是最早的 MOOC 课程之一。那段经历促使他共同创立了在线教育平台 Udacity。他还是 Kitty Hawk 的首席执行官,该公司致力于制造飞行汽车或更技术性的 eVTOLS(代表电动垂直起降飞机)。本次对话是人工智能播客的一部分。如果您想获取有关此
Complexity of Linear Regression related to Neural Networks
Udacity 深度学习课程的作业 #1 让你了解到,逻辑多项式(线性)回归模型可能无法提供非 MNIST 数据集分类问题所需的最佳准确度。让我们将逻辑多项式模型视为一种算法,并尝试计算它的复杂度。这里要考虑的两个参数是 W - 权重矩阵和 b - 具有 1 层的偏差矩阵。想象一下,输入图像是 28x28 图像,输出是 10 类向量。输入图像将被拉伸为输入到每个单元的单个像素。这使得输入层尺寸为 28x28。参数 W 的尺寸变为 (28x28)x10,它被添加到 10x1 偏差矩阵中。参数总数为:28x28x10+10 = (N+1)*K,其中 N 是输入数,K 是输出数。另一种理解方式是 -
Loss Function with Cross Entropy made simple
我在 Google 的 Udacity 深度学习课程上找到了这个。 我将详细说明这些笔记,以帮助您更好地理解这个概念。 符号:D(S,L)是交叉熵L是用于训练的标签S(Y)是多项逻辑分类的每个类的概率的 softmax 输出。 为什么叫多项逻辑分类? 让我们看下面的图,有一个输入向量 X,我们用它来训练线性模型,也称为逻辑回归模型 - Wx + b。 这会产生 logit,也就是分数 Y,它进一步输入到 softmax 激活中以获得概率输出。 线性二元分类称为二项式逻辑分类。多项式表示有超过 2 个类(与二项式或二元分类相比)。-------------让我们帮助您理解交叉熵的数学。 它基本上
Study plan for ML and Deep Learning ventures
大家好!我制定了一个学习计划,我想通过查阅大量在线资源来执行这个计划(查看下面的资源和参考资料)。我是一名全职计算机工程师,下班后会继续研究我的机器学习兴趣。平衡时间很难,但有志者事竟成 :) 我知道要为我的计划投入大量时间会很困难,我打算每天晚上平均花 2 个小时学习,并调整我的时间表以优化工作效率。去年我已经完成了 Andrew Ng 的 Coursera 机器学习课程,但我将在执行这个计划的过程中分配时间进行复习。第 1 个月:FastAI 深度学习第 1 部分(正在进行中)第 2 个月:FastAI 深度学习第 2 部分第 3-5 个月:Udacity 深度学习纳米学位课程我将指导你们