Understanding SWAV: self-supervised learning with contrasting cluster assignments
对视图之间交换分配 (SWAV) 论文的数学解释。
Best Graph Neural Network architectures: GCN, GAT, MPNN and more
探索最流行的 gnn 架构,例如 gcn、gat、mpnn、graphsage 和时间图网络
一本自学指南,用于理解将深度学习应用于生物学和生物信息学所必需的生物学概念,重点关注蛋白质折叠和 alphafold2 相关内容
Speech Recognition: a review of the different deep learning approaches
探索最流行的深度学习架构以执行自动语音识别 (ASR)。从循环神经网络到卷积和 transformers。
Top Resources to start with Computer Vision and Deep Learning
精选的最佳课程、书籍和博客列表,用于学习使用深度学习方法的计算机视觉
A complete Hugging Face tutorial: how to build and train a vision transformer
通过数据集和 transformers 库的动手教程了解 Hugging Face 生态系统。探索如何微调 Vision Transformer (ViT)
Regularization techniques for training deep neural networks
了解什么是正则化,为什么它在深度神经网络中是必要的,并探索最常用的策略:L1、L2、dropout、随机深度、早期停止等
An introduction to Recommendation Systems: an overview of machine and deep learning architectures
了解 SOTA 推荐系统模型。从协同过滤和分解机到 DCN 和 DLRM
Speech synthesis: A review of the best text to speech architectures with Deep Learning
探索最流行的深度学习模型来执行文本到语音 (TTS) 合成
Tensorflow Extended (TFX) in action: build a production ready deep learning pipeline
关于如何开始使用 Tensorflow Extended 以及如何设计和执行深度学习管道的教程
An overview of Unet architectures for semantic segmentation and biomedical image segmentation
了解有关图像分割中广泛使用的最著名的卷积神经网络架构之一的所有信息。
How Graph Neural Networks (GNN) work: introduction to graph convolutions from scratch
从零开始使用图神经网络,并在 Pytorch 中实现图卷积层
JAX vs Tensorflow vs Pytorch: Building a Variational Autoencoder (VAE)
在从头开始开发和训练变分自动编码器时,对 JAX、Tensorflow 和 Pytorch 进行并排比较
Why multi-head self attention works: math, intuitions and 10+1 hidden insights
通过 10+1 个隐藏的见解和观察,了解有关臭名昭著的 Transformer 的注意力机制的所有知识
Build a Transformer in JAX from scratch: how to write and train your own models
如何使用 JAX、Haiku 和 Optax 开发和训练 Transformer。通过示例学习如何在 JAX 中编写深度学习模型