我们刚刚发布了一篇关于 RePEc 和 SSRN 的新工作论文,扩展了我们的结构向量自回归方法,用于估计整个经济的反弹效应,并将其应用于几个欧洲国家和美国。我与哥廷根大学的 Anne Berner、哈瑟尔特大学的 Stephan Bruns 和比萨圣安娜高等研究院的 Alessio Moneta 共同撰写了这篇论文。我们开发了这种方法,作为澳大利亚研究委员会资助的 DP16 能源效率项目的一部分。这是一个多元时间序列模型,使用时间序列来表示能源使用、GDP 和能源价格。该模型使我们能够控制 GDP 和能源价格的冲击,但可以模拟这些变量对能源效率冲击的响应。我们估计了能源效率冲击对能源使用的影响
Vladimir Vapnik: Predicates, Invariants, and the Essence of Intelligence
Vladimir Vapnik 是支持向量机、支持向量聚类、VC 理论和统计学习中许多基础思想的共同发明者。他出生于苏联,曾在莫斯科控制科学研究所工作,后来在美国工作,在 AT&T、NEC 实验室、Facebook AI 研究中心工作,现在是哥伦比亚大学的教授。他的作品已被引用超过 200,000 次。此对话是人工智能播客的一部分。如果您想获取有关此播客的更多信息,请访问 https://lexfridman.com/ai 或在 Twitter、LinkedIn、Facebook、Medium 或 YouTube 上与 @lexfridman 联系,您可以在其中观看这些对话的视频版本。如果您喜
The evolution of Natural Language Models (NLM) - Must know NLP Basics
我决定浏览一些 NLP(自然语言处理)领域的突破性论文,并总结我的学习成果。这些论文的日期从 2000 年代初到 2018 年。资料来源 - KDNuggets如果您是 NLP 领域的新手 - 我建议您从阅读这篇文章开始,其中涉及各种 NLP 基础知识。1. 神经概率语言模型2. 向量空间中单词表示的有效估计Word2Vec - Skipgram 模型3. 单词和短语的分布式表示及其组合4. GloVe:用于单词表示的全局向量5. 基于循环神经网络的语言模型6. 循环神经网络语言模型的扩展让我们从#1 开始,神经概率语言模型Bengio 等人。提出一种分布式单词表示法来对抗维数灾难。维数灾难源
Primer on the math of Machine Learning
1.向量的点积(内积或标量积)2个向量a和b的点积定义为:aT . b ,也可以表示为bT 。 a两个向量 a = [a1, a2, …, an] 和 b = [b1, b2, …, bn] 的点积定义为:{\displaystyle \mathbf {\color {red}a} \cdot \mathbf {\color {blue}b} =\sum _{i=1}^{n}{\color {red}a}_{i}{\color {blue}b}_{i}={\color {red}a}_{1}{\color {blue}b}_{1}+{\color {red}a}_{2}{\color {blu
Vladimir Vapnik: Statistical Learning
Vladimir Vapnik 是支持向量机、支持向量聚类、VC 理论和统计学习中许多基础思想的共同发明者。他的作品已被引用超过 170,000 次。他对人工智能和学习的本质有一些非常有趣的想法,尤其是关于我们当前方法的局限性和该领域的未解决的问题。视频版本可在 YouTube 上找到。如果您想获取有关此播客的更多信息,请访问 https://lexfridman.com/ai 或在 Twitter、LinkedIn、Facebook 或 YouTube 上与 @lexfridman 联系,您可以在其中观看这些对话的视频版本。
Word2Vec explained - Assignment #5 - Udacity Deep Learning Course by Google
嗨,我确实对向量空间的工作原理有很好的理解(这要感谢我在本科和研究生院学到的所有数学知识)。但是,Udacity 深度学习课程的作业 #5 具有挑战性,它需要可视化和理解一组向量如何成功(或几乎)表示单词的概念,同时将它们并排阅读为上下文。在尝试解决作业之前,我观看了几个视频并在线阅读了大量资料。让我先用一个例子来解释这个概念。考虑一下这句话:汤米狗是我最好的朋友。作为人类,我们的理解是,这句话指的是一只名叫汤米的狗,它是作家/作者最好的朋友。你如何通过数学让机器理解这一点?答案:嵌入将上述句子中的每个单词想象成你用于关联的云 - 我想到的可视化是:<汤米><狗><最好的朋友> - 其中<>代
Complexity of Linear Regression related to Neural Networks
Udacity 深度学习课程的作业 #1 让你了解到,逻辑多项式(线性)回归模型可能无法提供非 MNIST 数据集分类问题所需的最佳准确度。让我们将逻辑多项式模型视为一种算法,并尝试计算它的复杂度。这里要考虑的两个参数是 W - 权重矩阵和 b - 具有 1 层的偏差矩阵。想象一下,输入图像是 28x28 图像,输出是 10 类向量。输入图像将被拉伸为输入到每个单元的单个像素。这使得输入层尺寸为 28x28。参数 W 的尺寸变为 (28x28)x10,它被添加到 10x1 偏差矩阵中。参数总数为:28x28x10+10 = (N+1)*K,其中 N 是输入数,K 是输出数。另一种理解方式是 -
Loss Function with Cross Entropy made simple
我在 Google 的 Udacity 深度学习课程上找到了这个。 我将详细说明这些笔记,以帮助您更好地理解这个概念。 符号:D(S,L)是交叉熵L是用于训练的标签S(Y)是多项逻辑分类的每个类的概率的 softmax 输出。 为什么叫多项逻辑分类? 让我们看下面的图,有一个输入向量 X,我们用它来训练线性模型,也称为逻辑回归模型 - Wx + b。 这会产生 logit,也就是分数 Y,它进一步输入到 softmax 激活中以获得概率输出。 线性二元分类称为二项式逻辑分类。多项式表示有超过 2 个类(与二项式或二元分类相比)。-------------让我们帮助您理解交叉熵的数学。 它基本上
Classifying Duplicate Questions from Quora with Keras
在这篇文章中,我们将使用 Keras 对 Quora 中的重复问题进行分类。我们的实现灵感来自 Siamese 循环架构,并对相似度度量和嵌入层进行了修改(原始论文使用预训练的词向量)
词嵌入是一种将词汇表中的单词映射到密集实数向量的方法,其中语义相似的单词被映射到附近的点。在此示例中,我们将使用 Keras 为 Amazon Fine Foods Reviews 数据集生成词嵌入。
链接到本帖子所属系列中的所有帖子中的链接。我的最后几篇文章描述了与劳动力市场参与有关的健康保险的研究。那是一个用于工作锁的向量 - 健康保险激励进入劳动力或留在劳动力中。但是,还有另一个,更常见的工作,用于工作锁的矢量 - 宣传职位锁定:职位流动性首次出现在偶然的经济学家上。