BERT关键词检索结果

如何在 Hugging Face Transformers 中使用 mBERT 实现跨语言迁移学习

How to Implement Cross-Lingual Transfer Learning with mBERT in Hugging Face Transformers

让我们学习如何使用 mBERT 执行多语言任务。

2024 日历年 (CY) 杰出领导力 HULBERT 奖杯评选委员会公告

ANNOUNCEMENT OF THE CALENDAR YEAR (CY) 2024 HULBERT TROPHY FOR OUTSTANDING LEADERSHIP SELECTION  BOARD

R 192100Z 11 月 24 日 MARADMIN 561/24MSGID/GENADMIN/CMC PPO PO 华盛顿特区// SUBJ/ANNONCEMENT OF THE

微调 BERT 进行文本分类

Fine-Tuning BERT for Text Classification

一个带有 Python 代码的可破解示例尽管当今的 100B+ 参数转换器模型是 AI 领域最先进的模型,但我们仍然可以使用较小的(<1B 参数)模型完成很多工作。在本文中,我将介绍一个这样的示例,即微调 BERT(1.1 亿个参数)以对网络钓鱼 URL 进行分类。我将首先介绍关键概念,然后分享示例 Python 代码。图片来自 Canva。微调微调涉及通过额外的训练将预训练模型调整到特定用例。预训练模型是通过无监督学习开发的,从而无需大规模标记数据集。然后,与从头开始训练相比,经过微调的模型可以利用预先训练的模型表示来显着降低训练成本并提高模型性能 [1]。微调大型语言模型 (LLM)将训练

讣告 ROBERTO MIGUEL CAPOCASALE 1937-2024

OBITUARY ROBERTO MIGUEL CAPOCASALE 1937-2024

讣告 ROBERTO MIGUEL CAPOCASALE 1937-2024RobertoCapocasale 教授是乌拉圭蜘蛛学家,他推动了乌拉圭动物学的发展,尤其是蜘蛛纲动物分类学的发展,在拉丁美洲具有标杆意义。他领导了 ClementeEstable 生物研究所的实验动物学实验室。他推动了蜘蛛学的发展,影响了 Fernando Costa、Fernando Pérez-Miles、Miguel Simó 和下列作者等人的培养。从这个群体中涌现出了近三十位现任蜘蛛学家。Capocasale 在我们国家的黑暗时期慷慨地打开了他的实验室大门,为每一位好奇的博物学家提供了机会。他是基础科学研究生

USS DELBERT D. BLACK穿过直布罗陀海峡

USS Delbert D. Black transits through the Strait of Gibraltar

直布罗陀海峡 - 阿利·伯克(Arleigh Burke)阶级的导航驱逐舰,德尔伯特·D·布莱克(Uss Delbert D.

LinkBERT:使用文档链接改进语言模型训练

LinkBERT: Improving Language Model Training with Document Link

语言模型预训练语言模型 (LM),例如 BERT 1 和 GPT 系列 2,在许多自然语言处理 (NLP) 任务中取得了非凡的表现。它们现在是当今 NLP 系统的基础。3 这些模型在我们每天使用的产品和工具中发挥着重要作用,例如 Google 等搜索引擎 4 和 Alexa 等个人助理 5。这些 LM 非常强大,因为它们可以通过自监督学习在网络上的大量文本数据上进行预训练,而无需标签,之后预训练的模型可以快速适应各种新任务,而无需进行太多特定于任务的微调。例如,BERT 经过预训练可以预测原始文本中随机屏蔽的单词(屏蔽语言建模),例如从“My __ is fetching the ball”预

LinkBERT:使用文档链接改进语言模型训练

LinkBERT: Improving Language Model Training with Document Link

语言模型预训练语言模型 (LM),例如 BERT 1 和 GPT 系列 2,在许多自然语言处理 (NLP) 任务中取得了非凡的表现。它们现在是当今 NLP 系统的基础。3 这些模型在我们每天使用的产品和工具中发挥着重要作用,例如 Google 等搜索引擎 4 和 Alexa 等个人助理 5。这些 LM 非常强大,因为它们可以通过自监督学习在网络上的大量文本数据上进行预训练,而无需标签,之后预训练的模型可以快速适应各种新任务,而无需进行太多特定于任务的微调。例如,BERT 经过预训练可以预测原始文本中随机屏蔽的单词(屏蔽语言建模),例如从“My __ is fetching the ball”预

Transformers 解释:了解 GPT-3、BERT 和 T5 背后的模型

Transformers, Explained: Understand the Model Behind GPT-3, BERT, and T5

你知道那句话吗?当你有一把锤子时,所有东西看起来都像钉子。在机器学习中,我们似乎真的发现了一把神奇的锤子,实际上,所有东西都是钉子,它们被称为 Transformers。Transformers 是一种可以设计用于翻译文本、写诗和专栏文章,甚至生成计算机代码的模型。事实上,我在 daleonai.com 上写的很多令人惊叹的研究都是基于 Transformers 构建的,比如 AlphaFold 2,这是一个根据蛋白质基因序列预测蛋白质结构的模型,以及强大的自然语言处理 (NLP) 模型,如 GPT-3、BERT、T5、Switch、Meena 等。你可能会说它们已经超出了……呃,算了吧。如果

理解 SoTA 语言模型 (BERT、RoBERTA、ALBERT、ELECTRA)

Understanding SoTA Language Models (BERT, RoBERTA, ALBERT, ELECTRA)

大家好,现在有大量的语言模型!其中许多都有自己独特的学习“自监督”语言表示的方式,可供其他下游任务使用。在本文中,我决定总结当前的趋势并分享一些关键见解,以将所有这些新方法粘合在一起。😃(幻灯片来源:Delvin 等人,斯坦福 CS224n)问题:上下文无关/原子词表示我们在上一篇文章中从上下文无关方法开始,例如 word2vec、GloVE 嵌入。这些方法的缺点是它们不考虑句法上下文。例如“开立银行账户”与“在河岸上”。单词 bank 的含义取决于单词所处的上下文。解决方案 #1:上下文单词表示借助 ELMo,社区开始构建前向(从左到右)和后向(从右到左)序列语言模型,并使用从这两个模型(连

2019-20 海军士官长 DELBERT D. BLACK 领导奖提名

2019-20 MASTER CHIEF PETTY OFFICER OF THE NAVY DELBERT D. BLACK LEADERSHIP AWARD NOMINATIONS

未分类//常规 171435Z 4 月 20 日中旬110000590384UFM CNO 华盛顿 DCTO NAVADMININFO CNO

来自 R 的 BERT

BERT from R

深度学习模型 - 来自 Google AI Research 的 BERT - 在各种自然语言处理 (NLP) 任务中取得了最先进的成果。在本教程中,我们将展示如何使用 Keras 从 R 加载和训练 BERT 模型。

枪手亨利·刘易斯·赫伯特 (HENRY LEWIS HULBERT) 2016 年杰出领导奖奖杯

GUNNER HENRY LEWIS HULBERT TROPHY FOR OUTSTANDING LEADERSHIP FOR CY2016

121410Z APR 17ALMAR 011/17MSGID/GENADMIN/CMC WASHINGTON DC DMCS//SUBJ/GUNNER HENRY LEWIS HULBERT

SECDEF 诉 JAGs——令人不安的全景

SECDEF v. JAGs -- a disturbing panorama

美国有线电视新闻网 (CNN) 的娜塔莎·伯特兰 (Natasha Bertrand) 在此报道了政府对联合行动小组及其作用的悲观看法。摘录:“[皮特]赫格斯的言论和政策被认为有点精神错乱且适得其反,但前进的道路就是接受它,低下头,按照他的新政策行事,”一位现任陆军联合顾问团表示。 “没有 JAG 会试图破坏现状或引起注意。”

价值 300 万亿美元的胖手指?

A $300 Trillion Dollar Fat Finger?

价值 300 万亿美元的“肥手指”?区块链数据显示,稳定币发行方 Paxos 在 30 分钟内铸造并销毁了 300 万亿美元的 PayPal 美元稳定币,让许多加密货币用户摸不着头脑。这在社交媒体上引起了极大的搞笑和困惑……抄送:@federalreserve 这应该可以解决资金短缺问题 https://t.co/sKhLJj8NfF—zerohedge (@zerohedge) 2025 年 10 月 15 日但是,正如 CoinTelegraph 的特纳·赖特 (Turner Wright) 所解释的那样,这似乎是一个大胖手指......在铸币和销毁之后的周三 X 帖子中,Chaos La

让学生为工作世界做好准备意味着拥抱人工智能积极的文化

Preparing students for the world of work means embracing an AI-positive culture

Alastair Robertson 认为,为了让学生培养人工智能素养,高等教育机构必须将人工智能融入到课程和实践中

华盛顿特区大主教罗伯特·麦克尔罗伊红衣主教将在圣母院论坛活动上发表题为“治愈我们的国家对话和政治生活”的演讲

Cardinal Robert McElroy, archbishop of Washington, DC, to speak at Notre Dame Forum event on ‘Healing Our National Dialogue and Political Life’

华盛顿特区大主教区大主教罗伯特·麦克埃尔罗伊红衣主教将于下午 4 点与大学校长罗伯特·A·多德牧师 (Rev. Robert A. Dowd, C.S.C.) 进行题为“治愈我们的国家对话和政治生活”的对话。周五(10 月 17 日)在麦肯纳大厅 215/216 室举行,作为 2025-26 圣母院论坛的一部分,主题为“培养希望”。该活动免费向公众开放。

从海洋到太空,这个机器人正在前进

From sea to space, this robot is on a roll

Rishi Jangale 和 Derek Pravecek 与 RoboBall III。图片来源:Emily Oswald/Texas A&M Engineering。作者:Alyssa Schaechinger 2003 年在 NASA 工作时,机器人与自动化设计实验室 (RAD Lab) 主任 Robert Ambrose 博士设计了一款没有固定顶部或底部的机器人。 RoboBall 是一个完美的球体,无法翻转,并且 [...]

为什么我们应该对 2029 年全球仓促测试 15 岁青少年人工智能素养持怀疑态度

Why we should be skeptical of the hasty global push to test 15-year-olds’ AI literacy in 2029

Kathryn Conrad / Datafication / 已获得 CC-BY 4.0 许可,作者:阿尔伯塔大学 J-C Couture;那不勒斯费德里科二世大学的 Michele Martini 和剑桥大学的 Susan Lee Robertson 如果说 2022 年是 OpenAI 通过 ChatGPT 的推出而让我们的世界偏离轨道的一年,那么 2025 年将因对 AI 的疯狂拥抱而被铭记 [...]