变压器关键词检索结果

将推荐变压器扩展到十亿个参数

Scaling Recommender Transformers to a Billion Parameters

如何实现新一代 Transformer 推荐器将 Recommender Transformers 扩展至十亿个参数后首次出现在 Towards Data Science 上。

使用自动编码器变压器模型进行软件缺陷预测

Software Defect Prediction using Autoencoder Transformer Model

由 AI-ML 驱动的质量工程方法使用 AI-ML 通过预测缺陷来增强软件质量评估。现有的机器学习模型难以应对噪声数据类型、不平衡、模式识别、特征提取和泛化等问题。为了应对这些挑战,我们开发了一种新模型,即基于自适应差分进化(ADE)的量子变分自编码器-变换器(QVAET)模型(ADE-QVAET)。 ADE 与 QVAET 相结合,获得高维潜在特征并保持顺序依赖性,从而提高缺陷预测的准确性。 ADE 优化增强模型...

使用CNN和视觉变压器的视觉花粉分类

Visual Pollen Classification Using CNNs and Vision Transformers

填补数据空白:生态学和生物技术中花粉识别的机器学习方法使用 CNN 和视觉变压器进行视觉花粉分类后的文章首先出现在《走向数据科学》上。

10 Python单线以优化您的拥抱脸部变压器管道

10 Python One-Liners to Optimize Your Hugging Face Transformers Pipelines

在本文中,我们提出了10个功能强大的Python单线,可帮助您优化拥抱的Face Pipeline()工作流程。

使用变压器

An Interactive Guide to 4 Fundamental Computer Vision Tasks Using Transformers

概述了4个基本的计算机视觉任务 - 图像分类,图像分割,图像字幕和视觉问题回答以及变压器模型。通过提供实用的简化应用程序实施指南,可以在交互作用上比较VIT,DETR,BLIP和VILT性能。该帖子是针对4个使用变压器的4个基本计算机视觉任务任务的交互式指南,首先出现在数据科学方面。

学习如何将变压器与拥抱面和Spacy

Learn How to Use Transformers with HuggingFace and SpaCy

用Spacy掌握NLP:第4部分帖子学习如何使用HuggingFace和Spacy的变压器首先出现在数据科学方面。

BoolFormer:具有变压器逻辑函数的符号回归

Boolformer: Symbolic Regression of Logic Functions with Transformers

本文在ICML 2025的第二个AI上接受了数学研讨会。我们介绍了BoolFormer,这是一种基于变压器的模型,该模型训练有素,旨在执行布尔函数的端到端符号回归。首先,我们证明它可以预测鉴于其完整的真相表,可以预测训练期间未见的复杂功能的紧凑型公式。然后,我们证明,即使有不完整或嘈杂的观察,Boolformer仍然能够找到良好的近似表达式。我们在广泛的现实二进制分类数据集上评估了布尔形式,证明了其作为可解释的替代方案的潜力……

机器人焊接如何提供一致的变压器储罐制造

How Robot Welding Delivers Consistent Results in Transformer Tank Fabrication

机器人焊接可通过减少缺陷,提高安全性并满足严格的行业标准来确保一致,高质量的变压器储罐焊接。如何在变压器储罐制造中提供了一致的机器人焊接,从而使wrobot robot。

现实生活变压器:无人机在空中变形

Real-life transformer: Drone morphs mid-air

atto是一个机器人,将空中从飞行无人机转变为地面流动站。通过克服混合机器人的长期挑战被困在粗糙的地形上,这一突破释放了自主交付,灾难响应和行星探索的新可能性。

音频谱图变压器超出实验室

Audio Spectrogram Transformers Beyond the Lab

使用AudiOmoth,Raspberry Pi和不错的深度学习构建便携式音景监视应用程序的配方。实验室以外的后音频频谱变形金刚首先出现在数据科学方面。

预算上的视觉变压器

Vision Transformer on a Budget

简介香草vit有问题。如果您看原始的Vit论文[1],您会注意到,尽管这种深度学习模型被证明非常好,但它需要数亿个标签的培训图像才能实现这一目标。好吧,那很多。对数据科学迈出的大量数据的这一要求肯定是[…]预算的后视觉变压器。

用于代码翻译的变压器模型:使用Gen AI

Transformer Models for Code Translation: Modernizing Legacy Applications with Gen AI

虽然传统应用似乎似乎有益,但它们的架构可能会阻碍您的业务敏捷性,灵活性和响应能力,这对于当今快速发展的市场而言蓬勃发展。重构旧版代码应该是战略优先事项,理想能够由现代产品工程服务与业务目标保持一致的现代产品工程服务。通过将它们与生成型AI相结合...阅读更多»代码翻译的后变压器模型:与Gen AI的现代化遗产应用程序首先出现在大数据分析新闻中。

基于变压器的主题建模的伯托的实用指南

A Practical Guide to BERTopic for Transformer-Based Topic Modeling

深入研究了Bertopic的6个模块,以将财务新闻转变为有见地的主题,该帖子是基于变形金刚的主题建模的实用指南,首先是迈向数据科学的。

魔术背后:张量如何驱动变压器

Behind the Magic: How Tensors Drive Transformers

变形金刚内部的张量的工作流程魔术背后的帖子:张量如何使变形金刚首先出现在数据科学上。

社交媒体帖子和基于变压器的模型,用于早期检测中风

Social media posts and transformer-based models for early detection of heat stroke

研究人员开发了一种使用社交媒体和AI有效检测中风风险的方法。在科学询问者上首次出现了社交媒体帖子和基于变压器的早期检测热中风的模型。

飞镖:可扩展文本到图像生成的自动回归变压器

DART: Denoising Autoregressive Transformer for Scalable Text-to-Image Generation

扩散模型已成为视觉产生的主要方法。他们是通过deno培训的马尔可夫工艺,该过程逐渐为输入增加了噪音。我们认为,马尔可夫的财产限制了该模型充分利用生成轨迹的能力,从而导致训练和推理期间效率低下。在本文中,我们提出了DART,这是一种基于变压器的模型,该模型统一自回归(AR)和非马克维亚框架内的扩散。飞镖迭代地将图像贴片在空间和光谱上使用与标准相同的架构相同的AR模型

ec-dit:使用自适应专家选择路由缩放扩散变压器

EC-DIT: Scaling Diffusion Transformers with Adaptive Expert-Choice Routing

扩散变压器已被广泛用于文本对图像合成。在将这些模型扩展到数十亿个参数显示出希望的同时,超越当前尺寸的缩放的有效性仍然没有充满挑战和具有挑战性。通过明确利用图像世代的计算异质性,我们开发了一个新的Experts(MOE)模型(MOE)模型(EC-DIT),用于具有专家选择路由的扩散变压器。 EC-DIT学会了适应性地优化分配的计算以了解输入文本并生成相应的图像补丁,从而实现异质性…

变压器实验室:开源代码平台用AI语言模型简化了工作

Transformer Lab: Öppen källkods-plattform förenklar arbetet med AI-språkmodeller

人工智能和大型语言模型变得越来越易于​​访问,但实际上与它们合作通常需要专业知识。 Transformer Lab试图通过提供一个平台来改变这一点,开发人员可以在本地尝试AI模型而无需深入的技术知识。 Transformer Lab是一个开源代码平台,允许任何人构建,微调[…] Post Transformer Lab:开源平台最初出现在AI News上的AI语言模型来简化作品。