美国政府问责署发现自 2013 年以来,美国政府问责署发现并报告了内政部 (Interior) 印第安教育局 (BIE) 的众多问题。在此期间,美国政府问责署发布了 24 份报告和证词,并向 BIE 提出了 38 项建议,涉及该机构对学校的支持和监督。BIE 支持和监督的主要问题领域包括学校支出、特殊教育、学校安全和建设、远程学习以及对学校的行政支持。例如,2024 年,美国政府问责署发现,在 BIE 学校使用购物卡进行的 COVID-19 支出中,近一半涉及欺诈或滥用风险较高的交易,但 BIE 并未提供证据证明其已调查过任何此类购买。美国政府问责署一再发现关键领域存在问题,这表明 BIE 存
Common algorithms in AI: supervised, unsupervised, and reinforcement learning
为什么重要:探索常见的 AI 算法,如监督学习、无监督学习和强化学习,以及它们的应用和挑战。
Does Semi-Supervised Learning Help to Train Better Models?
评估半监督学习如何利用未标记数据作者提供的图片 — 使用 Bing 中的 Image Creator 创建数据科学家面临的最常见挑战之一是缺乏足够的标记数据来训练可靠且准确的模型。标记数据对于监督学习任务(例如分类或回归)至关重要。但是,在许多领域,获取标记数据可能成本高昂、耗时或不切实际。另一方面,未标记数据通常很容易收集,但它们不提供任何直接输入来训练模型。我们如何利用未标记数据来改进我们的监督学习模型?这就是半监督学习发挥作用的地方。半监督学习是机器学习的一个分支,它结合标记和未标记数据来训练一个比单独使用标记数据表现更好的模型。半监督学习背后的直觉是,未标记的数据可以提供有关数据底层结
From MOCO v1 to v3: Towards Building a Dynamic Dictionary for Self-Supervised Learning — Part 1
从 MOCO v1 到 v3:走向构建自监督学习的动态词典 - 第 1 部分对动量对比学习框架的简要回顾我们是否已经进入自监督学习时代?数据每天都在流入。人们全天候工作。工作分布在世界的每个角落。但是,仍然有如此多的数据未注释,等待新模型、新训练或新升级的可能使用。或者,它永远不会发生。当世界以监督的方式运行时,它永远不会发生。近年来,自监督学习的兴起揭示了一个新的方向。自监督学习不是为所有任务创建注释,而是将任务分解为前置/预训练(请参阅我之前关于预训练的帖子)任务和下游任务。前置任务专注于从整个数据集中提取代表性特征,而无需任何基本事实注释的指导。尽管如此,此任务仍需要从数据集自动生成标签
Tony Thurmond cruises to reelection as California state superintendent
正在竞选第二任期的瑟蒙德轻松击败了保守派教育政策倡导者和私立学校选择倡议的支持者兰斯·克里斯滕森。
On the Stepwise Nature of Self-Supervised Learning
图 1:自监督学习中的逐步行为。在训练常见的 SSL 算法时,我们发现损失以逐步方式下降(左上),而学习到的嵌入则以迭代方式增加维度(左下)。嵌入的直接可视化(右图;显示了前三个 PCA 方向)证实了嵌入最初会折叠到一个点,然后扩展到 1D 流形、2D 流形,并随着损失的步骤而扩展。人们普遍认为,深度学习的惊人成功部分归功于它能够发现和提取复杂数据的有用表示。自监督学习 (SSL) 已成为一种领先的框架,用于直接从未标记数据中学习图像的这些表示,类似于 LLM 直接从网络抓取的文本中学习语言的表示。然而,尽管 SSL 在 CLIP 和 MidJourney 等最先进的模型中发挥着关键作用,但诸
BYOL tutorial: self-supervised learning on CIFAR images with code in Pytorch
实现和理解 byol,一种没有负样本的自监督计算机视觉方法。了解 BYOL 如何学习用于图像分类的稳健表示。
Self-supervised learning tutorial: Implementing SimCLR with pytorch lightning
了解如何实现臭名昭著的对比自监督学习方法 SimCLR。在 PyTorch 和 PyTorch-lightning 中逐步实现
Understanding Maximum Likelihood Estimation in Supervised Learning
本文在统计学的棱镜下揭开了 ML 学习建模过程的神秘面纱。我们将了解我们对数据的假设如何使我们能够创建有意义的优化问题。
#258 – Yann LeCun: Dark Matter of Intelligence and Self-Supervised Learning
Yann LeCun 是 Meta 的首席人工智能科学家、纽约大学教授、图灵奖获得者,也是机器学习历史上最具影响力的研究者之一。请查看我们的赞助商来支持此播客:- Public Goods:https://publicgoods.com/lex 并使用代码 LEX 获得 15 美元折扣- Indeed:https://indeed.com/lex 获得 75 美元信用额度- ROKA:https://roka.com/ 并使用代码 LEX 获得首次订单 20% 的折扣- NetSuite:http://netsuite.com/lex 获取免费产品游览- Magic Spoon:https:/
Understanding SWAV: self-supervised learning with contrasting cluster assignments
对视图之间交换分配 (SWAV) 论文的数学解释。
Yann LeCun: Deep Learning, Convolutional Neural Networks, and Self-Supervised Learning
Yann LeCun 是深度学习之父之一,深度学习是人工智能领域最近的一场革命,它以机器从数据中学习的可能性吸引了全世界的注意力。他是纽约大学的教授,Facebook 的副总裁兼首席人工智能科学家,并因其在深度学习方面的工作而共同获得图灵奖。他最为人所知的身份可能是卷积神经网络的创始人,尤其是其在光学字符识别方面的早期应用。本次对话是人工智能播客的一部分。如果您想了解有关此播客的更多信息,请访问 https://lexfridman.com/ai 或在 Twitter、LinkedIn、Facebook、Medium 或 YouTube 上与 @lexfridman 联系,您可以在那里观看这些
Generate training data and cost-effectively train categorical models with Amazon Bedrock
在这篇文章中,我们探讨了如何使用亚马逊基岩生成高质量的分类地面真相数据,这对于培训机器学习(ML)模型至关重要,在成本敏感的环境中。生成的AI解决方案可以通过简化多类分类监督学习用例来简化培训和测试数据创建,从而在模型开发阶段发挥宝贵的作用。我们深入研究了如何使用XML标签来构建提示并引导亚马逊基岩以高精度生成平衡的标签数据集的过程。我们还展示了一个现实世界中的示例,用于预测支持案例的根本原因类别。该用例可通过ML解决,可以使支持团队能够更好地了解客户需求并优化响应策略。
Towards Automatic Assessment of Self-Supervised Speech Models Using Rank
这项研究使用嵌入式等级探讨了通过自我监督学习(SSL)训练的通用语音编码器的无监督评估度量。传统上,评估这些编码器的性能是资源密集的,需要从下游任务中标记的数据。受视觉域的启发,嵌入等级显示了评估图像编码器的希望,而无需对标记的下游数据进行调整,因此考虑到信号的时间性质,研究了其在语音域中的适用性。这些发现表明等级与下游相关……