先验关键词检索结果

使用 Python 校准营销组合模型

Calibrating Marketing Mix Models In Python

实用指南第 2 部分,帮助您掌握 pymc 中的 MMM 用户生成的图像本系列是关于什么的?欢迎阅读我的营销组合模型 (MMM) 系列第 2 部分,这是一本实用指南,可帮助您掌握 MMM。在本系列中,我们将介绍模型训练、验证、校准和预算优化等关键主题,所有这些都使用强大的 pymc-marketing python 包。无论您是 MMM 新手还是想要提高技能,本系列都将为您提供实用的工具和见解,以改进您的营销策略。如果您错过了第 1 部分,请在这里查看:掌握 Python 中的营销组合模型简介在本系列的第二部分中,我们将把重点转移到使用来自实验的信息先验来校准我们的模型:为什么校准营销组合模型

科学并非无价值的

Science is not value free

一篇有趣的评论针对之前一个相当奇怪的评论提出了一些非常正确的观点。几个月前,Ulf Büntgen () 发表了一篇论证不充分且相当令人困惑的评论,开头是:我担心气候科学家会成为气候活动家,因为学者不应该对他们的研究结果有先验的兴趣 […] 这篇文章《科学并非无价值》首次出现在 RealClimate 上。

聪明人更喜欢被动

Smart people prefer passive

每个人都喜欢确认他们的先验

Monty Hall 问题和贝叶斯推理 - 我们如何根据附加信息改变我们的行为?

モンティ・ホール問題とベイズ推定-追加情報に応じて取るべき行動をどう変えるか?

最流行的概率难题之一是 Monty Hall 问题。我们的许多读者可能在某处听说过它。 事实上,直到现在我才刻意讨论蒙蒂·霍尔问题。这个问题是如此众所周知,以至于感觉没有什么新东西可写。 然而,当我尝试使用贝叶斯估计找到答案时,我意识到这个问题有许多不同的变体。这次我们就来看看其中的一部分。首先,我们来看看蒙蒂·霍尔问题。我希望那些说“我很清楚这一点”的读者回顾一下。 (蒙蒂·霍尔问题)有一个电视游戏节目,由一个名叫蒙蒂·霍尔的人主持。回答者前面有三扇门(1)、(2)和(3)。如果其中一个有这扇门的房间里有宝藏,那扇门就会被击中,其余的都会丢失。如果回答者猜出雅达利门,他们将获得宝藏。要求回答

多重共线性是否会破坏营销组合建模中的因果推断?

Is Multi-Collinearity Destroying Your Causal Inferences In Marketing Mix Modelling?

因果 AI,探索因果推理与机器学习的整合照片由 NOAA 在 Unsplash 上拍摄本系列是关于什么的?欢迎来到我的因果 AI 系列,我们将探索因果推理与机器学习模型的整合。期望探索不同业务环境中的许多实际应用。在上一篇文章中,我们介绍了使用 CUPED 和双重机器学习为实验提供动力。今天,我们将重点转移到了解多重共线性如何损害您做出的因果推断,特别是在营销组合建模中。如果您错过了上一篇关于使用 CUPED 和双重机器学习为实验提供动力的文章,请在此处查看:使用 CUPED 和双重机器学习为实验提供动力简介在本文中,我们将探讨多重共线性的破坏性,并评估我们可以用来解决它的一些方法。将涵盖以下

复杂与智能系统,第 10 卷,第 4 期,2024 年 8 月

Complex & Intelligent Systems, Volume 10, Issue 4, August 2024

1) 一种用于动作识别的人体骨骼关键帧选择优化方法作者:陈浩,潘悦凯,王晨武页数:4659 - 46732) 城市轨道交通网络短期起讫点流量预测:基于多源大数据的深度学习方法作者:崔红萌,司冰峰……潘伟婷页数:4675 - 46963) 用于社区检测的多约束非负矩阵分解:正交正则稀疏约束非负矩阵分解作者:陈子刚,肖奇……李晓勇页数:4697 - 47124) 使用多层时间图神经网络预测社交媒体网络中的流行趋势作者:金瑞东,刘欣,村田刚页数:4713 - 47295) 受全变分和深度去噪先验启发的混合正则化用于图像恢复作者:Hu Liang, Jiahao Zhang...Jinbo Zhu页数

小心操作:使用 EMA 改进梯度手术

Careful With That Scalpel: Improving Gradient Surgery With an EMA

除了最小化单个训练损失之外,许多深度学习估计管道还依赖于辅助目标来量化和鼓励模型的理想属性(例如,在另一个数据集上的性能、稳健性、与先验的一致性)。虽然合并辅助损失的最简单方法是将其与训练损失相加作为正则化器,但最近的研究表明,可以通过混合梯度而不是简单的总和来提高性能;这被称为梯度手术。我们将问题视为一个受约束的最小化问题,其中辅助目标是……

使用大型语言模型为虚拟助手生成合成查询

Synthetic Query Generation using Large Language Models for Virtual Assistants

这篇论文被 SIGIR 2024 的行业轨道所接受。虚拟助手 (VA) 是重要的信息检索平台,可帮助用户通过口头命令完成各种任务。语音识别系统 (语音转文本) 使用仅对文本进行训练的查询先验来区分语音上令人困惑的替代方案。因此,生成类似于现有 VA 用法的合成查询可以极大地提高 VA 的能力 - 尤其是对于配对音频/文本数据中尚未出现的用例。在本文中,我们提供了初步探索……

用于将 ASR 个性化为非典型语音的超网络

Hypernetworks for Personalizing ASR to Atypical Speech

*平等贡献者用于个性化自动语音识别 (ASR) 的参数高效微调 (PEFT) 最近显示出将一般人群模型适应非典型语音的前景。然而,这些方法假设对所适应的非典型言语障碍有先验知识——诊断这种障碍需要专业知识,而这些知识并不总是可用的。即使有了这些知识,数据稀缺性和说话者之间/说话者内部的高差异性也进一步限制了传统微调的有效性。为了规避这些挑战,我们首先确定模型的最小集……

最后的保守派

The Last Conservative

米尔顿·弗里德曼 (Milton Friedman) 对统计分析的执着使他强烈反对路德维希·冯·米塞斯 (Ludwig von Mises) 和弗里德里希·哈耶克 (Friedrich Hayek) 的经济学,他认为他们是先验的“不科学”理论的传播者。

为什么进化论是错误的

Why Evolution is False

刚刚去世的哲学家丹尼尔·丹尼特称达尔文的自然选择思想是有史以来最好的思想,是一种可以解决生物学中所有问题的万能溶剂。丹尼特鄙视基督徒,为那些与他有相同世界观的人创造了“聪明人”一词,并认为不尊重宗教是明智之举,因为它会破坏“社会的认识论结构”。与无神论者理查德·道金斯一样,他从不与生物学家辩论,只与神学家辩论。在 2009 年的一次辩论中,丹尼特提到,他曾带他的朋友(一位进化生物学家)参加 1997 年与迈克尔·贝赫就其著作《达尔文的黑匣子》(1996 年)进行的辩论,因为他觉得自己没有资格讨论微生物学争论。丹尼特将贝赫的书描述为“极其虚伪的宣传,充满了明显的遗漏和歪曲”,既不严肃也不定量。丹

投票的最佳度量失真——书中的证明

Optimal Metric Distortion for Voting — A Proof from the Book

在这篇文章中,我们将重新讨论投票理论中的(确定性)度量扭曲猜想,该猜想最近由 Gkatzelis、Halpern 和 Shah [GHS20] 证明,并由 Kempe 和 Kizilkaya [KK22] 优雅地重新证明。该猜想涉及以下问题。假设我们举行一场选举,选民和候选人位于度量空间中,但我们唯一拥有的信息是选民按距离递增顺序对候选人的排名。候选人的成本是他们与选民的总距离。我们能否设计一条投票规则,始终选择成本接近最低可能的候选人?(理想情况下,只比最小值差一个小因素,在文献中称为扭曲。)先验地,这似乎是一项不可能完成的任务。如果不知道实际距离,你怎么可能做到这一点?事实证明,知道距离的

IEEE 模糊系统学报,第 32 卷,第 6 期,2024 年 6 月

IEEE Transactions on Fuzzy Systems, Volume 32, Issue 6, June 2024

1) 以人为本的模糊最佳最差群体决策过程综述作者:Yanlin Li, Yung Po Tsang, Carman Ka Man Lee, Zhen-Song Chen页数:3302 - 33182) 具有停留时间的互联切换非线性系统的自适应模糊最优控制作者:Licheng Zheng, Junhe Liu, C. L. Philip Chen, Yun Zhang, Ci Chen, Zongze Wu, Zhi Liu页数:3319 - 33283) 分层演化模糊系统:一种多维混沌时间序列在线预测方法作者:Lei Hu, Xinghan Xu, Weijie Ren, Min Han页数:

超越炼金术:初探几何深度学习

Beyond alchemy: A first look at geometric deep learning

几何深度学习是一个“程序”,旨在将深度学习架构和技术置于数学先验框架中。先验(例如各种类型的不变性)首先出现在某些物理域中。与该领域匹配良好的神经网络将保留尽可能多的不变性。在这篇文章中,我们提供了一个非常概念化的高级概述,并重点介绍了一些应用程序。

#145 – Matthew Johnson:迷幻药

#145 – Matthew Johnson: Psychedelics

马修·W·约翰逊 (Matthew W. Johnson) 是约翰霍普金斯大学的教授和迷幻药研究员。请查看我们的赞助商来支持此播客:- Brave:https://brave.com/lex- Neuro:https://www.getneuro.com 并使用代码 LEX 可获得 15% 的折扣- Four Sigmatic:https://foursigmatic.com/lex 并使用代码 LexPod 可获得高达 60% 的折扣- Cash App:https://cash.app/ 并使用代码 LexPodcast 可获得 10 美元 EPISODE 链接:Matt 的 Twitte

深度吸引子:深度学习与混沌相遇的地方

Deep attractors: Where deep learning meets chaos

在非线性动力学中,当状态空间被认为是多维的,但我们所拥有的数据只是一个单变量时间序列时,人们可能会尝试通过延迟坐标嵌入重建真实空间。然而,先验地不清楚如何选择重建空间的维数和时间滞后。在这篇文章中,我们展示了如何使用自动编码器架构来解决这个问题:只需给出一系列标量的观察结果,自动编码器就会直接学习以足够的维数来表示混沌系统的吸引子。

使用 tfprobability 向 Keras 模型添加不确定性估计

Adding uncertainty estimates to Keras models with tfprobability

截至目前,还没有主流方法可以从神经网络中获取不确定性估计。只能说,通常情况下,方法往往是贝叶斯主义的,涉及某种方式将先验置于模型权重之上。这也适用于本文中介绍的方法:我们展示了如何使用 tfprobability(TensorFlow Probability 的 R 接口)以优雅且概念上合理的方式将不确定性估计添加到 Keras 模型中。

使用 VQ-VAE 和 TensorFlow Probability 进行离散表示学习

Discrete Representation Learning with VQ-VAE and TensorFlow Probability

在考虑变分自动编码器 (VAE) 时,我们通常会将先验描绘为各向同性的高斯。但这绝不是必需的。van den Oord 等人的“神经离散表示学习”中描述的矢量量化变分自动编码器 (VQ-VAE) 具有离散潜在空间,可以学习令人印象深刻的简洁潜在表示。在这篇文章中,我们结合了 Keras、TensorFlow 和 TensorFlow Probability 的元素,看看我们是否可以生成与 Kuzushiji-MNIST 中的字母相似的令人信服的字母。