A Guide to NLP: What it is and How to Apply it to Your Business
自然语言处理 (NLP) 是人工智能 (AI) 的一个分支学科,可以对语音和文本进行合成和分析,使计算机能够通过人类语言进行解释、理解和交流。了解如何利用 NLP 为您的业务服务。文章《NLP 指南:它是什么以及如何将其应用于您的业务》首先出现在 Fusemachines 上。
В России разрабатывают универсальную ИИ-систему управления роботами по языковым инструкциям
来自 AIRI 和 MIPT 的科学家团队与 Sber 机器人中心合作,正在努力创建一个用于规划机器人动作的系统,该系统将允许它们使用自然语言命令(而不是使用固定语言)为人类执行日常任务。脚本。
Goal representations for instruction following
指令跟踪的目标表示机器人学习领域的一个长期目标是创建能够为人类执行任务的通才代理。自然语言有可能成为一种易于使用的界面……
Goal Representations for Instruction Following
目标表示用于遵循指令机器人学习领域的一个长期目标是创建能够为人类执行任务的通才代理。自然语言有可能成为人类指定任意任务的易于使用的界面,但很难训练机器人遵循语言指令。语言条件行为克隆 (LCBC) 等方法训练策略以直接模仿以语言为条件的专家动作,但需要人类注释所有训练轨迹,并且在场景和行为中的泛化能力较差。同时,最近的目标条件方法在一般操作任务中表现更好,但无法为人类操作员提供轻松的任务指定。我们如何才能协调通过类似 LCBC 的方法指定任务的便利性与目标条件学习的性能改进?从概念上讲,遵循指令的机器人需要两种能力。它需要将语言指令扎根于物理环境中,然后能够执行一系列动作来完成预期任务。这些能
TalkToModel: Interface for Understanding ML Models
TalkToModel 是一个创新系统,用于实现与 ML 模型的开放式对话。该平台不仅允许用户理解 ML 模型,还可以使用自然语言与它们进行交流,并接收有关其预测和操作过程的解释。
Text Annotation in Machine Learning: A Comprehensive Guide
什么是机器学习中的文本注释? 机器学习中的文本注释是指向原始文本数据添加元数据或标签,以创建用于训练、评估和改进机器学习模型的结构化数据集。 这是自然语言处理 (NLP) 任务中的关键步骤,因为它可以帮助算法理解、解释和根据 [...] 做出预测
What are Large Language Models? What are they not?
这是一篇关于大型语言模型 (LLM) 的高级介绍性文章,大型语言模型是支持非常流行的聊天机器人以及其他自然语言处理 (NLP) 应用程序的核心技术。它面向普通读者,可能具有一些技术和/或科学背景,但不要求读者具备深度学习或 NLP 方面的知识。在了解了主要模型成分、训练工作流程和输出生成机制之后,我们还讨论了这些模型不是什么。
4 Effective Conversational AI Practices to Maximum ROI
对话式人工智能由自然语言处理和机器学习等先进技术驱动,已成为新商业格局中的游戏规则改变者。它通过提供自动化、智能化和人性化的对话,彻底改变了公司与客户的互动方式。除了改善客户体验之外,对话式人工智能还被证明是最大化投资回报的宝贵工具[…]
Philosophers vs Transformers: Neural net impersonates a famous cognitive scientist
计算机能思考吗?AI 模型能有意识吗?这些和类似的问题经常出现在有关自然语言模型 GPT-3、LAMDA 和其他 transformer 取得的最新 AI 进展的讨论中。尽管如此,它们仍然存在争议,处于悖论的边缘,因为关于大脑如何工作以及思考意味着什么通常存在许多隐藏的假设和误解。没有其他办法,只能明确揭示这些假设,然后探索如何让机器复制人类的信息处理。
Sequence Feature Extraction for Malware Family Analysis via Graph Neural Network
恶意软件对我们的设备和生活造成了很大的危害。我们迫切希望了解恶意软件的行为及其造成的威胁。恶意软件的大多数记录文件都是可变长度的、带有时间戳的基于文本的文件,例如事件日志数据和动态分析配置文件。利用时间戳,我们可以将这些数据分类为基于序列的数据,以便进行后续分析。然而,处理可变长度的基于文本的序列很困难。此外,与自然语言文本数据不同,信息安全中的大多数序列数据都具有特定的属性和结构,例如循环、重复调用、噪声等。为了深入分析 API 调用序列及其结构,我们使用图来表示序列,这可以进一步研究信息和结构,例如马尔可夫模型。因此,我们设计并实现了一个注意力感知图神经网络 (AWGCN) 来分析 API
LinkBERT: Improving Language Model Training with Document Link
语言模型预训练语言模型 (LM),例如 BERT 1 和 GPT 系列 2,在许多自然语言处理 (NLP) 任务中取得了非凡的表现。它们现在是当今 NLP 系统的基础。3 这些模型在我们每天使用的产品和工具中发挥着重要作用,例如 Google 等搜索引擎 4 和 Alexa 等个人助理 5。这些 LM 非常强大,因为它们可以通过自监督学习在网络上的大量文本数据上进行预训练,而无需标签,之后预训练的模型可以快速适应各种新任务,而无需进行太多特定于任务的微调。例如,BERT 经过预训练可以预测原始文本中随机屏蔽的单词(屏蔽语言建模),例如从“My __ is fetching the ball”预
LinkBERT: Improving Language Model Training with Document Link
语言模型预训练语言模型 (LM),例如 BERT 1 和 GPT 系列 2,在许多自然语言处理 (NLP) 任务中取得了非凡的表现。它们现在是当今 NLP 系统的基础。3 这些模型在我们每天使用的产品和工具中发挥着重要作用,例如 Google 等搜索引擎 4 和 Alexa 等个人助理 5。这些 LM 非常强大,因为它们可以通过自监督学习在网络上的大量文本数据上进行预训练,而无需标签,之后预训练的模型可以快速适应各种新任务,而无需进行太多特定于任务的微调。例如,BERT 经过预训练可以预测原始文本中随机屏蔽的单词(屏蔽语言建模),例如从“My __ is fetching the ball”预
Stanford AI Lab Papers at EMNLP/CoNLL 2021
2021 年自然语言处理经验方法会议 (EMNLP 2021) 将于下周与 CoNLL 2021 共同举办。我们很高兴与大家分享 SAIL 的所有工作成果,您可以在下面找到论文、视频和博客的链接。欢迎直接联系作者,了解更多有关斯坦福大学正在进行的工作!已接受论文列表校准您的听众!面向务实演讲者的强大沟通培训作者:Rose E. Wang、Julia White、Jesse Mu、Noah D. Goodman联系方式:rewang@stanford.edu链接:论文 |视频关键词:语言生成、语用学、基于交流的训练、校准、不确定性跨域数据集成用于生物医学文本中的命名实体消歧作者:Maya Var
Stanford AI Lab Papers at CoRL 2021
机器人学习会议 (CoRL 2021) 将于下周举行。我们很高兴与大家分享 SAIL 的所有成果,您可以在下面找到论文、视频和博客的链接。欢迎直接联系作者,了解更多有关斯坦福大学的工作!已接受论文列表 LILA:语言知情潜在行动作者:Siddharth Karamcheti*、Megha Srivastava*、Percy Liang、Dorsa Sadigh 联系方式:skaramcheti@cs.stanford.edu、megha@cs.stanford.edu 关键词:自然语言、共享自主性、人机交互 行为:虚拟、交互和生态环境中日常家庭活动的基准 作者:Sanjana Srivasta
Stanford AI Lab Papers at CoRL 2021
机器人学习会议 (CoRL 2021) 将于下周举行。我们很高兴与大家分享 SAIL 的所有成果,您可以在下面找到论文、视频和博客的链接。欢迎直接联系作者,了解更多有关斯坦福大学的研究成果!已接受论文列表 LILA:语言知情潜在行动作者:Siddharth Karamcheti*、Megha Srivastava*、Percy Liang、Dorsa Sadigh联系方式:skaramcheti@cs.stanford.edu、megha@cs.stanford.edu 关键词:自然语言、共享自主性、人机交互 行为:虚拟、交互和生态环境中日常家庭活动的基准 作者:Sanjana Srivast