走向数据科学领域信息情报检索

在数据科学领域分享概念、思想和代码。Towards Data Science Inc.是一家在加拿大注册的公司。它为成千上万的人提供了一个交流思想、扩展对数据科学理解的平台。

llm监视和可观察性:与langfuse的动手

LLM Monitoring and Observability: Hands-on with Langfuse

了解LLM监视和可观察性的基本原理,从跟踪到评估,再到使用Langfusethe后LLM监测和可观察性设置仪表板:与Langfuse的动手最初出现在数据科学上。

为什么您的提示不属于git

Why Your Prompts Don’t Belong in Git

在源中存储提示的隐性成本codethe帖子为什么您的提示不属于git,首先出现在数据科学上。

如何基于Google Cloud上的经典机器学习工作负载

How to Benchmark Classical Machine Learning Workloads on Google Cloud

利用CPU用于实用的,具有成本效益的机器学习帖子如何在Google Cloud上进行基准的经典机器学习工作负载首先出现在数据科学方面。

为什么科学必须与生成AI共同创造以打破当前的研究障碍

Why Science Must Embrace Co-Creation with Generative AI to Break Current Research Barriers

致科学界的公开信中,为什么科学必须与生成AI进行共同创造,以打破当前的研究障碍,这首先出现在数据科学方面。

使用DSPY优化的系统llm提示工程

Systematic LLM Prompt Engineering Using DSPy Optimization

本文是LLM提示迭代的迷人和快速发展的科学的旅程,这是大型语言模型操作(LLMOPS)的基本组成部分。我们将使用现实世界数据集生成客户服务响应的示例,以展示如何以系统的方式开发生成器和LLM判断提示[…]使用DSPY优化的系统LLM提示工程首先出现在数据科学方面。

Google对Gemini的影响进展或绿色洗涤是否揭示?

Is Google’s Reveal of Gemini’s Impact Progress or Greenwashing?

从表面上看,Google的数字听起来很小,但是您看的越近,故事就越复杂。首先出现在数据科学上。

更好的机器学习模型

Three Essential Hyperparameter Tuning Techniques for Better Machine Learning Models

了解如何优化ML模型以更好地结果,帖子为更好的机器学习模型的三个基本的高参数调谐技术首先出现在数据科学方面。

破解密度代码:为什么MAF在KDE Stalls

Cracking the Density Code: Why MAF Flows Where KDE Stalls

了解为什么自回旋流是高维datathe柱破裂密度代码的高密度估计工具:为什么MAF流向KDE Stalls首先出现在数据科学上的位置。

如何执行全面的大规模LLM验证

How to Perform Comprehensive Large Scale LLM Validation

了解如何验证大型LLM应用程序邮政如何进行全面的大规模LLM验证,首先是朝着数据科学迈进。

如果我在2020年有AI:租用跑道动态定价模型

What If I Had AI in 2020: Rent The Runway Dynamic Pricing Model

曾经想过,如果Covid在Covid开始时存在Chatgpt,那可能会有多大不同?特别是对于必须更新其预测模型的数据科学家?如果我在2020年有AI:租用跑道动态定价模型该怎么办,首先出现在数据科学方面。

飓风袭击最困难的地方:带有Python的县级分析

Where Hurricanes Hit Hardest: A County-Level Analysis with Python

使用Python,Geopandas,Tropycal和Plotly表达表达过去50年中每个县的飓风遭遇的数量。飓风袭击最严重的帖子:县级分析和Python的县级分析首先出现在数据科学方面。

设计值得信赖的ML模型:Alan&Aida发现机器学习中的单调性

Designing Trustworthy ML Models: Alan & Aida Discover Monotonicity in Machine Learning

精确度不能保证可信度。单调性确保预测与常识和业务规则保持一致。设计值得信赖的ML模型:Alan&Aida发现机器学习中的单调性首先出现在数据科学方面。

使用5行代码

How We Reduced LLM Costs by 90% with 5 Lines of Code

当干净的代码隐藏效率低下时:我们从修复几行代码并节省了90%的LLM成本中学到的内容。帖子我们如何将LLM成本降低90%,而5行代码首先出现在数据科学方面。

您需要了解的有关新电源BI存储模式

Everything You Need to Know About the New Power BI Storage Mode

直接左右的50个阴影发布了您需要了解的有关新功率BI存储模式的所有信息,首先是在数据科学方面出现的。

AI代理供应链优化:生产计划

AI Agents for Supply Chain Optimisation: Production Planning

如何将优化算法集成到FastAPI微服务中,并与AI工作流程以自动化生产计划。供应链优化的AI后ADENTENT:生产计划首先出现在数据科学方面。

我作为有抱负的数据分析师最有价值的课程

My Most Valuable Lesson as an Aspiring Data Analyst

我的实习教会了我关于数据分析中协作的力量的知识。作为有抱负的数据分析师,我最有价值的教训首先出现在数据科学方面。

更智能的模型调整:具有Langgraph +精简的AI代理,可提高ML性能

Smarter Model Tuning: An AI Agent with LangGraph + Streamlit That Boosts ML Performance

在Python中使用Gemini,Langgraph和简化回归和分类来自动化模型调整,改进了Post Post Post Post Smalter Model Tuning:具有Langgraph +简化的AI代理,它提高ML性能首先出现在数据科学方面。

“ Marta在哪里?”:我们如何从AI推理中删除不确定性

“Where’s Marta?”: How We Removed Uncertainty From AI Reasoning

用正式验证克服LLM限制的入门。帖子“在哪里?”:我们如何从AI推理中删除不确定性,首先出现在数据科学方面。