美国政府问责署发现自 2013 年以来,美国政府问责署发现并报告了内政部 (Interior) 印第安教育局 (BIE) 的众多问题。在此期间,美国政府问责署发布了 24 份报告和证词,并向 BIE 提出了 38 项建议,涉及该机构对学校的支持和监督。BIE 支持和监督的主要问题领域包括学校支出、特殊教育、学校安全和建设、远程学习以及对学校的行政支持。例如,2024 年,美国政府问责署发现,在 BIE 学校使用购物卡进行的 COVID-19 支出中,近一半涉及欺诈或滥用风险较高的交易,但 BIE 并未提供证据证明其已调查过任何此类购买。美国政府问责署一再发现关键领域存在问题,这表明 BIE 存
Common algorithms in AI: supervised, unsupervised, and reinforcement learning
为什么重要:探索常见的 AI 算法,如监督学习、无监督学习和强化学习,以及它们的应用和挑战。
Does Semi-Supervised Learning Help to Train Better Models?
评估半监督学习如何利用未标记数据作者提供的图片 — 使用 Bing 中的 Image Creator 创建数据科学家面临的最常见挑战之一是缺乏足够的标记数据来训练可靠且准确的模型。标记数据对于监督学习任务(例如分类或回归)至关重要。但是,在许多领域,获取标记数据可能成本高昂、耗时或不切实际。另一方面,未标记数据通常很容易收集,但它们不提供任何直接输入来训练模型。我们如何利用未标记数据来改进我们的监督学习模型?这就是半监督学习发挥作用的地方。半监督学习是机器学习的一个分支,它结合标记和未标记数据来训练一个比单独使用标记数据表现更好的模型。半监督学习背后的直觉是,未标记的数据可以提供有关数据底层结
From MOCO v1 to v3: Towards Building a Dynamic Dictionary for Self-Supervised Learning — Part 1
从 MOCO v1 到 v3:走向构建自监督学习的动态词典 - 第 1 部分对动量对比学习框架的简要回顾我们是否已经进入自监督学习时代?数据每天都在流入。人们全天候工作。工作分布在世界的每个角落。但是,仍然有如此多的数据未注释,等待新模型、新训练或新升级的可能使用。或者,它永远不会发生。当世界以监督的方式运行时,它永远不会发生。近年来,自监督学习的兴起揭示了一个新的方向。自监督学习不是为所有任务创建注释,而是将任务分解为前置/预训练(请参阅我之前关于预训练的帖子)任务和下游任务。前置任务专注于从整个数据集中提取代表性特征,而无需任何基本事实注释的指导。尽管如此,此任务仍需要从数据集自动生成标签
Tony Thurmond cruises to reelection as California state superintendent
正在竞选第二任期的瑟蒙德轻松击败了保守派教育政策倡导者和私立学校选择倡议的支持者兰斯·克里斯滕森。
On the Stepwise Nature of Self-Supervised Learning
图 1:自监督学习中的逐步行为。在训练常见的 SSL 算法时,我们发现损失以逐步方式下降(左上),而学习到的嵌入则以迭代方式增加维度(左下)。嵌入的直接可视化(右图;显示了前三个 PCA 方向)证实了嵌入最初会折叠到一个点,然后扩展到 1D 流形、2D 流形,并随着损失的步骤而扩展。人们普遍认为,深度学习的惊人成功部分归功于它能够发现和提取复杂数据的有用表示。自监督学习 (SSL) 已成为一种领先的框架,用于直接从未标记数据中学习图像的这些表示,类似于 LLM 直接从网络抓取的文本中学习语言的表示。然而,尽管 SSL 在 CLIP 和 MidJourney 等最先进的模型中发挥着关键作用,但诸
BYOL tutorial: self-supervised learning on CIFAR images with code in Pytorch
实现和理解 byol,一种没有负样本的自监督计算机视觉方法。了解 BYOL 如何学习用于图像分类的稳健表示。
Self-supervised learning tutorial: Implementing SimCLR with pytorch lightning
了解如何实现臭名昭著的对比自监督学习方法 SimCLR。在 PyTorch 和 PyTorch-lightning 中逐步实现
Understanding Maximum Likelihood Estimation in Supervised Learning
本文在统计学的棱镜下揭开了 ML 学习建模过程的神秘面纱。我们将了解我们对数据的假设如何使我们能够创建有意义的优化问题。
#258 – Yann LeCun: Dark Matter of Intelligence and Self-Supervised Learning
Yann LeCun 是 Meta 的首席人工智能科学家、纽约大学教授、图灵奖获得者,也是机器学习历史上最具影响力的研究者之一。请查看我们的赞助商来支持此播客:- Public Goods:https://publicgoods.com/lex 并使用代码 LEX 获得 15 美元折扣- Indeed:https://indeed.com/lex 获得 75 美元信用额度- ROKA:https://roka.com/ 并使用代码 LEX 获得首次订单 20% 的折扣- NetSuite:http://netsuite.com/lex 获取免费产品游览- Magic Spoon:https:/
Understanding SWAV: self-supervised learning with contrasting cluster assignments
对视图之间交换分配 (SWAV) 论文的数学解释。
Yann LeCun: Deep Learning, Convolutional Neural Networks, and Self-Supervised Learning
Yann LeCun 是深度学习之父之一,深度学习是人工智能领域最近的一场革命,它以机器从数据中学习的可能性吸引了全世界的注意力。他是纽约大学的教授,Facebook 的副总裁兼首席人工智能科学家,并因其在深度学习方面的工作而共同获得图灵奖。他最为人所知的身份可能是卷积神经网络的创始人,尤其是其在光学字符识别方面的早期应用。本次对话是人工智能播客的一部分。如果您想了解有关此播客的更多信息,请访问 https://lexfridman.com/ai 或在 Twitter、LinkedIn、Facebook、Medium 或 YouTube 上与 @lexfridman 联系,您可以在那里观看这些
Reinforcement learning in robotics: Robots that learn from experience
强化学习(RL)正在改变机器人与世界互动的方式。与传统的编程或监督学习不同,依赖于预定义的规则或标记的数据集,RL使机器人能够通过反复试验学习 - 就像人类和动物如何获得新技能一样。随着机器人被部署在[…]
DiceHuBERT: Distilling HuBERT with a Self-Supervised Learning Objective
我们介绍了Dicehubert,这是一种用于压缩Hubert的知识蒸馏框架,Hubert是一种广泛使用的自我监督学习(SSL)的语音基础模型。与依赖于层次和学生模型之间的特征映射的现有蒸馏方法不同,Dicehubert通过直接用学生模型直接替换原始模型来利用Hubert的迭代自我鉴定机制。这种替代品允许使用与培训前使用相同的SSL目标对学生进行培训,从而消除了对其他模块或建筑约束的需求……