LLM关键词检索结果

“ RT-tax”基于LLM模型 div>创建AI-Agent

«РТ-Техприемка» создает ИИ-агенты на основе LLM моделей

已向会议提交了新的发展,以评分人工智能数据的数据和技术融合

Amazon Bedrock提示优化驱动LLM应用程序创新Yuewen Group

Amazon Bedrock Prompt Optimization Drives LLM Applications Innovation for Yuewen Group

今天,我们很高兴地宣布在亚马逊基岩上迅速优化。使用此功能,您现在可以使用单个API调用或单击Amazon Bedrock控制台上的按钮来优化几个用例的提示。在这篇博客文章中,我们讨论了如何提示优化改善Yuewen Group中智能文本处理任务的大语言模型(LLMS)的性能。

掌握自己的LLM:逐步指南

Small AI Startups Disrupt Big Tech Innovation

它很重要:小型AI初创公司通过推动敏捷,道德和以人为中心的AI突破来破坏大型技术创新。

GPU托管,LLM和看不见的后门

GPU Hosting, LLMs, and the Unseen Backdoor

Big AI在大型硬件上运行。目前,该硬件是GPU,否认,堆叠和旋转云基础架构24/7,直到某件事破裂之前,没有人双重检查。每个人都专注于LLMS所说和做的事情 - 但不是他们的住所或训练方式。那个后端?这是一团糟。而且它很开。

自动表格数据验证的基于LLM的工作流程

An LLM-Based Workflow for Automated Tabular Data Validation

清洁数据,清晰的见解:在不手动干预的情况下检测并正确正确的数据质量问题。自动表格数据验证的基于LLM的工作流程首先出现在数据科学上。

Raghu Para,跨平台AI工程师和创始合作伙伴 - Pivotal AI Projects,RAG和Agentic AI,可扩展体系结构,LLM自定义,AI领导力以及智能系统的未来

Raghu Para, Cross-Platform AI Engineer & Founding Partner — Pivotal AI Projects, RAG & Agentic AI, Scalable Architecture, LLM Customization, AI Leadership, and the Future of Intelligent Systems

在这次采访中,我们与跨平台AI工程师兼创始合作伙伴Raghu Para进行了交谈,该公司致力于建立可扩展的智能系统,这些系统在平台和行业之间无缝运行。 Raghu分享了有关从检索的生成和代理AI到制造和物流中AI驱动自动化的未来的主题的观点。他还解决了[…]

赛车超越深度:AWS LLM League的首次亮相

Racing beyond DeepRacer: Debut of the AWS LLM League

AWS LLM LOAGEWAS旨在通过提供一种体验来降低生成AI模型定制的进入障碍,而参与者无论其先前的数据科学经验如何,都可以从事微调LLMS。使用Amazon Sagemaker Jumpstart,引导与会者通过自定义LLMS来解决适应其领域的实际业务挑战的过程。

AI可以通过人类认知测试吗?探索人工智能的极限 带回家:本地LLM的兴起及其对数据隐私的影响 lattice半导体的细分市场总监侯赛因·奥斯曼(Hussein Osman) - 访谈系列

Can AI Pass Human Cognitive Tests? Exploring the Limits of Artificial Intelligence

人工智能(AI)已经显着提高,从为自动驾驶汽车供电到协助医疗诊断。但是,一个重要的问题仍然存在:AI可以通过为人类设计的认知测试吗?尽管AI在语言处理和解决问题等领域取得了令人印象深刻的结果,但它仍然努力复制人类思想的复杂性。 ai […]帖子可以通过人类认知测试吗?探索人工智能的极限首先出现在unite.ai上。

掌握自己的LLM:逐步指南

Mastering Your Own LLM: A Step-by-Step Guide

它很重要:掌握您自己的LLM:在本地运行安全的私人大型语言模型的分步指南。

mm-ego:朝着以自我为中心的多模式LLMS

MM-Ego: Towards Building Egocentric Multimodal LLMs

这项研究旨在全面探索建立以自我为中心视频理解的多模式基础模型。为了实现这一目标,我们在三个方面工作。首先,由于缺乏质量为中心的视频理解的质量检查数据,因此我们将自动生成7m高质量的质量质量样本,用于基于人类通知数据的ego4d的自我中心视频。这是最大的中心QA数据集之一。其次,我们通过629个视频和7,026个问题来贡献一个具有挑战性的QA基准,以评估模型的识别能力和…

带回家:本地LLM的兴起及其对数据隐私的影响lattice半导体的细分市场总监侯赛因·奥斯曼(Hussein Osman) - 访谈系列

Hussein Osman, Segment Marketing Director at Lattice Semiconductor – Interview Series

侯赛因·奥斯曼(Hussein Osman)是一位半导体行业的资深人士,拥有超过二十年的经验,这些经验带给了市场硅和软件产品,这些产品将感知,处理和连接解决方​​案集成到了为最终用户带来价值的创新体验。在过去的五年中,他领导了Sensai解决方案策略和在格林特的努力[…] Lattice Semiconductor的细分市场总监侯赛因·奥斯曼(Hussein Osman) - 访谈系列首次出现在Unite.ai上。

LLMS遵循说明时会在内部知道吗?

Do LLMs Know Internally When They Follow Instructions?

指令遵循的内容对于建立具有大语言模型(LLMS)的AI代理至关重要,因为这些模型必须严格遵守用户提供的约束和准则。但是,LLM通常甚至无法遵循简单明了的说明。为了改善跟随指导行为并防止不良产出,需要更深入地了解LLMS内部状态与这些结果的关系。在这项工作中,我们调查了LLMS是否在其表示中编码与指导跟踪成功相关的信息 - 我们“内部知识”的属性。我们的分析…

使用尾部远程访问本地LLM:分步指南

Accessing Local LLMs Remotely Using TailScale: A Step-by-Step Guide

探索如何远程访问本地LLM。

tic-lm:时间限制性LLM预处理

TiC-LM: A Web-Scale Benchmark for Time-Continual LLM Pretraining

在Neurips 2024的终身基础模型(SCLLFM)讲习班的可伸缩持续学习中接受了本文。LARGE语言模型(LLMS)受过历史网络数据的培训不可避免地会过时。随着新数据的可用,我们调查了LLMS的评估策略和更新方法。我们引入了一个网络尺度数据集,以用于从114个常见爬网(CC)垃圾场得出的LLMS的时间预处理 - 比以前的持续语言建模基准测试的数量级。我们还设计了一般CC数据和特定域的时间分层评估……

LLM可以帮助设计我们的下一个药物和材料吗?

Could LLMs help design our next medicines and materials?

一种新方法使用户可以用简单的语言询问具有某些属性的新分子,并收到有关如何合成它的详细说明。

Clarifai 11.3:介绍AI游乐场 - LLM战场测试强大的AI模型

Clarifai 11.3: Introducing AI Playground — LLM Battleground to Test Powerful AI Models

发现新的AI游乐场,这是一种使用强大的AI模型进行探索,测试和构建的方法。了解改进的标签工具,平台更新和Python SDK增强功能。

[AI Show第143集]:ChatGpt收入激增,新AGI时间表,亚马逊的AI代理,Claude的教育,模型上下文协议和LLMS通过Turing Test

[The AI Show Episode 143]: ChatGPT Revenue Surge, New AGI Timelines, Amazon’s AI Agent, Claude for Education, Model Context Protocol & LLMs Pass the Turing Test

OpenAi刚刚筹集了惊人的40B美元来建造AGI,而且它可能与您想象的那样遥不可及。在这一集中,Paul和Mike打破了有关AGI的新预测,为什么Google为Agi的影响做好准备,以及亚马逊如何悄悄踏入AI Agent Artim Arms Race。另外:Openai的“开放”是克劳德(Claude)发起了全面的AI教育推动力,辩论AI是否可以通过Turing测试,跑道筹集了3亿美元以重写好莱坞规范。

LLMS在跟踪指导中估计不确定性是否很好?

Do LLMs Estimate Uncertainty Well in Instruction-Following?

大型语言模型(LLMS)可能是各个域中有价值的个人AI代理,只要它们可以准确地遵循用户说明即可。但是,最近的研究表明,LLMS的指导遵循功能有显着局限性,这引起了人们对其在高风险应用中的可靠性的担忧。准确地估计LLM在遵守指令中的不确定性对于减轻部署风险至关重要。据我们所知,我们介绍了在遵循教学的背景下对LLM的不确定性估计能力的第一个系统评估。我们的研究确定了……