papers关键词检索结果

长记忆神经网络

Long-Memory Neural Nets

分数阶 SDE-Net:具有长期记忆的时间序列数据生成作者:Kohei Hayashi;Kei Nakagawa摘要:本文重点介绍使用神经网络生成时间序列数据。通常情况下,输入的时间序列数据(尤其是来自真实金融市场的数据)是不规则采样的,其噪声结构比 i.i.d. 类型更复杂。为了生成具有这种特性的时间序列,我们提出了 fSDE-Net:神经分数阶随机微分方程网络。它通过使用 Hurst 指数大于一半的分数布朗运动来推广神经 SDE 模型,从而表现出长期记忆特性。我们推导了 fSDE-Net 的求解器,并从理论上分析了 fSDE-Net 解的存在性和唯一性。我们的实验表明,fSDE-Net 模

机器学习和中央银行

Machine Learning and Central Banking

当然,机器学习 (ML) 现在无处不在。几十年来,时间序列分析视角一直与 ML 相匹配(简约预测模型允许错误指定;样本外评估;集合平均等),因此即使存在许多差异,也存在许多重叠领域。有趣的是,ML 在中央银行环境中变得特别有用。例如,费城联邦储备银行现在明确招募和聘用“机器学习经济学家”。目前他们有三个,他们正在寻找第四个!在这方面,特别有趣的是,《计量经济学杂志》正在征集关于“经济政策机器学习”的特别专题论文,客座编辑来自各种领先的中央银行和大学。请参阅 https://www.bankofengland.co.uk/events/2022/october/call-for-papers-m

因子网络自回归

Factor Network Autoregressions

请查看 Barigozzi、Cavaliere 和 Moramarco 撰写的文章:http://d.repec.org/n?u=RePEc:arx:papers:2208.02925&r=非常酷的动态“多层网络”方法。在标准的 N 维网络中,有一个 NxN 邻接矩阵。但更丰富的网络可能有许多种连接,每种连接都由自己的邻接矩阵控制。(多么伟大的见解——一旦你听到它,就会觉得如此自然和明显。一个美好的“顿悟时刻”!)所以也许有 K 个可操作的 NxN 邻接矩阵。然后实际上有一个宏大的 3 维邻接矩阵 (NxNxK) 可操作——一个立方矩阵而不是方阵。简约建模变得绝对关键,在这方面,BCM 有效地

使用 Paperspace 在云端建立 GPU 工作站

GPU Workstations in the Cloud with Paperspace

如果您无法在本地访问现代 NVIDIA GPU,那么最好的办法通常是在云中运行 GPU 密集型训练作业。Paperspace 是一种云服务,它提供对配备 GPU 的完全预配置的 Ubuntu 16.04 桌面环境的访问。

Wi Vi:使用 wifi 信号感知人类的存在和活动

Wi Vi: Using wifi signals to sense human presence and activity

摘要:Wi-Fi 信号通常是发射器和接收器之间的信息载体。在本文中,我们展示了 Wi-Fi 还可以扩展我们的感官,使我们能够透过墙壁和关门看到移动的物体。特别是,我们可以利用这种信号来识别封闭房间内的人数及其相对位置。我们还可以识别墙后的简单手势,并结合一系列手势将信息传达给无线接收器,而无需携带任何传输设备。本文介绍了两个主要创新。首先,它展示了如何使用 MIMO 干扰消除来消除静态物体的反射并将接收器聚焦在移动目标上。其次,它展示了如何通过将人体的运动视为天线阵列并跟踪由此产生的射频波束来跟踪人体。我们通过构建来证明我们设计的有效性。论文链接:http://people.csail.mit