Why MAP and MRR Fail for Search Ranking (and What to Use Instead)
MAP和MRR看似直观,却悄悄打破了排名评价。以下是这些指标产生误导的原因以及更好的替代方案如何解决这一问题。为什么 MAP 和 MRR 无法进行搜索排名(以及使用什么替代)一文首先出现在 Towards Data Science 上。
The Machine Learning “Advent Calendar” Day 24: Transformers for Text in Excel
直观、逐步地了解 Transformers 如何使用自注意力将静态词嵌入转换为上下文表示,并通过简单的示例和 Excel 友好的演练进行说明。机器学习“降临日历”第 24 天:Excel 中文本的 Transformers 帖子首先出现在《走向数据科学》上。
Is Your Model Time-Blind? The Case for Cyclical Feature Encoding
循环编码如何改进机器学习预测帖子“你的模型是时盲的吗?”循环特征编码案例首先出现在《走向数据科学》上。
4 Techniques to Optimize AI Coding Efficiency
了解如何使用 AI 更有效地进行编码“优化 AI 编码效率的 4 种技术”一文首先出现在《走向数据科学》上。
Bonferroni vs. Benjamini-Hochberg: Choosing Your P-Value Correction
多重假设检验、P 值和蒙特卡洛Bonferroni 与 Benjamini-Hochberg 的对比:选择 P 值校正首先出现在《走向数据科学》上。
The Machine Learning “Advent Calendar” Day 23: 1D CNN for Text in Excel
用于文本的分步 1D CNN,内置于 Excel,其中每个过滤器、权重和决策都是完全可见的。机器学习“降临日历”第 23 天:Excel 中用于文本的 1D CNN 帖子首先出现在走向数据科学上。
How Agents Plan Tasks with To-Do Lists
了解浪链中代理规划和任务管理背后的流程《代理如何使用待办事项列表规划任务》一文首先出现在《走向数据科学》上。
Stop Retraining Blindly: Use PSI to Build a Smarter Monitoring Pipeline
数据科学家群体稳定性指数 (PSI) 指南这篇文章《停止盲目再训练:使用 PSI 构建更智能的监控管道》首先出现在《走向数据科学》上。
Synergy in Clicks: Harsanyi Dividends for E-Commerce
Harsanyi Dividend 背后的数学原理和 Streamlit 中的实际应用的简要概述点击次数中的协同作用:电子商务的 Harsanyi Dividends 帖子首先出现在 Towards Data Science 上。
The Machine Learning “Advent Calendar” Day 22: Embeddings in Excel
通过简单模型和 Excel 了解文本嵌入机器学习“降临日历”第 22 天:Excel 中的嵌入一文首先出现在《迈向数据科学》上。
The Machine Learning “Advent Calendar” Day 21: Gradient Boosted Decision Tree Regressor in Excel
带有决策树的函数空间中的梯度下降机器学习“降临日历”第 21 天:Excel 中的梯度提升决策树回归器首先出现在走向数据科学上。
The Machine Learning “Advent Calendar” Day 20: Gradient Boosted Linear Regression in Excel
从随机集成到优化:梯度提升解释机器学习“降临日历”第 20 天:Excel 中的梯度提升线性回归一文首先出现在《走向数据科学》上。
ChatLLM Presents a Streamlined Solution to Addressing the Real Bottleneck in AI
在过去的几年里,围绕人工智能的许多讨论都围绕着一个看似简单的问题:哪种模型是最好的?但下一个问题始终是,什么是最好的?最适合推理?写作?编码?或者它可能最适合图像、音频或视频?这一框架使得 […]ChatLLM 提出了解决人工智能真正瓶颈的简化解决方案一文首先出现在《走向数据科学》上。
The Geometry of Laziness: What Angles Reveal About AI Hallucinations
一个关于前进失败、你无法想象的领域以及为什么有时数学比我们先知道事情的故事懒惰的几何:人工智能幻觉的角度首先出现在《走向数据科学》上。
What Happens When You Build an LLM Using Only 1s and 0s
比当今标准模型效率提高 41 倍、速度提高 9 倍的 LLM 帖子“仅使用 1 和 0 构建 LLM 时会发生什么”首先出现在《走向数据科学》上。
Running Evals on a Bloated RAG Pipeline
比较数据集和模型之间的指标在臃肿的 RAG 管道上运行评估一文首先出现在 Towards Data Science 上。
Understanding the Generative AI User
普通技术用户对人工智能有什么看法(和了解)?这篇文章《了解生成式人工智能用户》首先出现在《走向数据科学》上。