走向数据科学领域信息情报检索

在数据科学领域分享概念、思想和代码。Towards Data Science Inc.是一家在加拿大注册的公司。它为成千上万的人提供了一个交流思想、扩展对数据科学理解的平台。

Bonferroni 与 Benjamini-Hochberg:选择 P 值校正

Bonferroni vs. Benjamini-Hochberg: Choosing Your P-Value Correction

多重假设检验、P 值和蒙特卡洛Bonferroni 与 Benjamini-Hochberg 的对比:选择 P 值校正首先出现在《走向数据科学》上。

机器学习“降临日历”第 23 天:Excel 中文本的一维 CNN

The Machine Learning “Advent Calendar” Day 23: 1D CNN for Text in Excel

用于文本的分步 1D CNN,内置于 Excel,其中每个过滤器、权重和决策都是完全可见的。机器学习“降临日历”第 23 天:Excel 中用于文本的 1D CNN 帖子首先出现在走向数据科学上。

客服人员如何使用待办事项列表计划任务

How Agents Plan Tasks with To-Do Lists

了解浪链中代理规划和任务管理背后的流程《代理如何使用待办事项列表规划任务》一文首先出现在《走向数据科学》上。

停止盲目再训练:利用PSI构建更智能的监控管道

Stop Retraining Blindly: Use PSI to Build a Smarter Monitoring Pipeline

数据科学家群体稳定性指数 (PSI) 指南这篇文章《停止盲目再训练:使用 PSI 构建更智能的监控管道》首先出现在《走向数据科学》上。

点击量协同:Harsanyi 为电子商务带来红利

Synergy in Clicks: Harsanyi Dividends for E-Commerce

Harsanyi Dividend 背后的数学原理和 Streamlit 中的实际应用的简要概述点击次数中的协同作用:电子商务的 Harsanyi Dividends 帖子首先出现在 Towards Data Science 上。

机器学习“降临节日历”第 22 天:Excel 中的嵌入

The Machine Learning “Advent Calendar” Day 22: Embeddings in Excel

通过简单模型和 Excel 了解文本嵌入机器学习“降临日历”第 22 天:Excel 中的嵌入一文首先出现在《迈向数据科学》上。

机器学习“降临日历”第 21 天:Excel 中的梯度提升决策树回归器

The Machine Learning “Advent Calendar” Day 21: Gradient Boosted Decision Tree Regressor in Excel

带有决策树的函数空间中的梯度下降机器学习“降临日历”第 21 天:Excel 中的梯度提升决策树回归器首先出现在走向数据科学上。

机器学习“降临日历”第 20 天:Excel 中的梯度提升线性回归

The Machine Learning “Advent Calendar” Day 20: Gradient Boosted Linear Regression in Excel

从随机集成到优化:梯度提升解释机器学习“降临日历”第 20 天:Excel 中的梯度提升线性回归一文首先出现在《走向数据科学》上。

ChatLLM 提出了解决 AI 真正瓶颈的简化解决方案

ChatLLM Presents a Streamlined Solution to Addressing the Real Bottleneck in AI

在过去的几年里,围绕人工智能的许多讨论都围绕着一个看似简单的问题:哪种模型是最好的?但下一个问题始终是,什么是最好的?最适合推理?写作?编码?或者它可能最适合图像、音频或视频?这一框架使得 […]ChatLLM 提出了解决人工智能真正瓶颈的简化解决方案一文首先出现在《走向数据科学》上。

懒惰的几何:从哪些角度揭示人工智能幻觉

The Geometry of Laziness: What Angles Reveal About AI Hallucinations

一个关于前进失败、你无法想象的领域以及为什么有时数学比我们先知道事情的故事懒惰的几何:人工智能幻觉的角度首先出现在《走向数据科学》上。

了解 Vibe 证明

Understanding Vibe Proving

如何让法学硕士通过可验证的、逐步的逻辑进行推理(第 1 部分)《理解氛围证明》一文首先出现在《走向数据科学》上。

当您仅使用 1 和 0 构建 LLM 时会发生什么

What Happens When You Build an LLM Using Only 1s and 0s

比当今标准模型效率提高 41 倍、速度提高 9 倍的 LLM 帖子“仅使用 1 和 0 构建 LLM 时会发生什么”首先出现在《走向数据科学》上。

在臃肿的 RAG 管道上运行评估

Running Evals on a Bloated RAG Pipeline

比较数据集和模型之间的指标在臃肿的 RAG 管道上运行评估一文首先出现在 Towards Data Science 上。

了解生成式 AI 用户

Understanding the Generative AI User

普通技术用户对人工智能有什么看法(和了解)?这篇文章《了解生成式人工智能用户》首先出现在《走向数据科学》上。

公共 EDA(第 2 部分):Pandas 中的产品深度挖掘和时间序列分析

EDA in Public (Part 2): Product Deep Dive & Time-Series Analysis in Pandas

了解如何分析产品性能、提取时间序列特征以及揭示销售数据中的关键季节性趋势。公共 EDA 帖子(第 2 部分):Pandas 中的产品深度探究和时间序列分析首先出现在 Towards Data Science 上。

机器学习“降临节日历”第 19 天:Excel 中的装袋

The Machine Learning “Advent Calendar” Day 19: Bagging in Excel

从 Excel 中的基本原理理解集成学习机器学习“降临日历”第 19 天:Excel 中的装袋一文首先出现在《迈向数据科学》上。

我如何使用线性规划优化我的落叶策略

How I Optimized My Leaf Raking Strategy Using Linear Programming

从周末的琐事到有价值的运筹学原理的有趣应用我如何使用线性编程优化我的叶子收集策略一文首先出现在走向数据科学上。

2025 年必读:代理、Python、法学硕士等

2025 Must-Reads: Agents, Python, LLMs, and More

不要错过我们去年最受欢迎的文章!2025 年后必读文章:代理、Python、法学硕士等首先出现在《走向数据科学》上。