Boolformer: Symbolic Regression of Logic Functions with Transformers
本文在ICML 2025的第二个AI上接受了数学研讨会。我们介绍了BoolFormer,这是一种基于变压器的模型,该模型训练有素,旨在执行布尔函数的端到端符号回归。首先,我们证明它可以预测鉴于其完整的真相表,可以预测训练期间未见的复杂功能的紧凑型公式。然后,我们证明,即使有不完整或嘈杂的观察,Boolformer仍然能够找到良好的近似表达式。我们在广泛的现实二进制分类数据集上评估了布尔形式,证明了其作为可解释的替代方案的潜力……
How Robot Welding Delivers Consistent Results in Transformer Tank Fabrication
机器人焊接可通过减少缺陷,提高安全性并满足严格的行业标准来确保一致,高质量的变压器储罐焊接。如何在变压器储罐制造中提供了一致的机器人焊接,从而使wrobot robot。
Real-life transformer: Drone morphs mid-air
atto是一个机器人,将空中从飞行无人机转变为地面流动站。通过克服混合机器人的长期挑战被困在粗糙的地形上,这一突破释放了自主交付,灾难响应和行星探索的新可能性。
Audio Spectrogram Transformers Beyond the Lab
使用AudiOmoth,Raspberry Pi和不错的深度学习构建便携式音景监视应用程序的配方。实验室以外的后音频频谱变形金刚首先出现在数据科学方面。
Vision Transformer on a Budget
简介香草vit有问题。如果您看原始的Vit论文[1],您会注意到,尽管这种深度学习模型被证明非常好,但它需要数亿个标签的培训图像才能实现这一目标。好吧,那很多。对数据科学迈出的大量数据的这一要求肯定是[…]预算的后视觉变压器。
Transformer Models for Code Translation: Modernizing Legacy Applications with Gen AI
虽然传统应用似乎似乎有益,但它们的架构可能会阻碍您的业务敏捷性,灵活性和响应能力,这对于当今快速发展的市场而言蓬勃发展。重构旧版代码应该是战略优先事项,理想能够由现代产品工程服务与业务目标保持一致的现代产品工程服务。通过将它们与生成型AI相结合...阅读更多»代码翻译的后变压器模型:与Gen AI的现代化遗产应用程序首先出现在大数据分析新闻中。
A Practical Guide to BERTopic for Transformer-Based Topic Modeling
深入研究了Bertopic的6个模块,以将财务新闻转变为有见地的主题,该帖子是基于变形金刚的主题建模的实用指南,首先是迈向数据科学的。
Behind the Magic: How Tensors Drive Transformers
变形金刚内部的张量的工作流程魔术背后的帖子:张量如何使变形金刚首先出现在数据科学上。
Social media posts and transformer-based models for early detection of heat stroke
研究人员开发了一种使用社交媒体和AI有效检测中风风险的方法。在科学询问者上首次出现了社交媒体帖子和基于变压器的早期检测热中风的模型。
DART: Denoising Autoregressive Transformer for Scalable Text-to-Image Generation
扩散模型已成为视觉产生的主要方法。他们是通过deno培训的马尔可夫工艺,该过程逐渐为输入增加了噪音。我们认为,马尔可夫的财产限制了该模型充分利用生成轨迹的能力,从而导致训练和推理期间效率低下。在本文中,我们提出了DART,这是一种基于变压器的模型,该模型统一自回归(AR)和非马克维亚框架内的扩散。飞镖迭代地将图像贴片在空间和光谱上使用与标准相同的架构相同的AR模型
EC-DIT: Scaling Diffusion Transformers with Adaptive Expert-Choice Routing
扩散变压器已被广泛用于文本对图像合成。在将这些模型扩展到数十亿个参数显示出希望的同时,超越当前尺寸的缩放的有效性仍然没有充满挑战和具有挑战性。通过明确利用图像世代的计算异质性,我们开发了一个新的Experts(MOE)模型(MOE)模型(EC-DIT),用于具有专家选择路由的扩散变压器。 EC-DIT学会了适应性地优化分配的计算以了解输入文本并生成相应的图像补丁,从而实现异质性…
Transformer Lab: Öppen källkods-plattform förenklar arbetet med AI-språkmodeller
人工智能和大型语言模型变得越来越易于访问,但实际上与它们合作通常需要专业知识。 Transformer Lab试图通过提供一个平台来改变这一点,开发人员可以在本地尝试AI模型而无需深入的技术知识。 Transformer Lab是一个开源代码平台,允许任何人构建,微调[…] Post Transformer Lab:开源平台最初出现在AI News上的AI语言模型来简化作品。
M2R2: Mixture of Multi-Rate Residuals for Efficient Transformer Inference
残差转换增强了大语言模型(LLMS)的代表性深度和表达能力。但是,在自动回归产生中应用所有代币的静态残差转换会导致推理效率和产生忠诚度之间的次优折衷。现有方法,包括早期退出,跳过解码和深入的混合物,通过根据令牌级的复杂性调节剩余转换来解决此问题。尽管如此,这些方法主要考虑由代币通过模型层所穿越的距离,忽略了…
Vision Transformers (ViT) Explained: Are They Better Than CNNs?
了解计算机视觉任务的开创性架构如何运作后视觉变形金刚(VIT)解释:它们比CNN更好吗?首先出现在数据科学上。
Вучич: Сербия передаст Украине электрогенераторы и трансформаторы на сумму 8,4 млн. евро
塞尔维亚当局将向乌克兰转让价值840万欧元的发电机和变压器。
VQ4DiT: A Fast Post-Training Vector Quantization Method for DiTs (Diffusion Transformers Models)
文本到图像的扩散模型在根据输入条件生成复杂而忠实的图像方面取得了重大进展。其中,扩散变压器模型 (DiT) 变得特别强大,OpenAI 的 SoRA 是一个值得注意的应用程序。DiT 由堆叠多个变压器块构建而成,利用变压器的缩放属性通过灵活的参数扩展实现增强的性能。文章 VQ4DiT:一种用于 DiT(扩散变压器模型)的快速后训练矢量量化方法首次出现在 AI Quantum Intelligence 上。
Flash Attention: Revolutionizing Transformer Efficiency
随着 Transformer 模型的规模和复杂性不断增长,它们在计算效率和内存使用方面面临着重大挑战,尤其是在处理长序列时。Flash Attention 是一种优化技术,有望彻底改变我们在 Transformer 模型中实现和扩展注意力机制的方式。在本综合指南中,我们将深入探讨 […]The post Flash Attention:革命性地改变 Transformer 效率首先出现在 Unite.AI 上。