Transform关键词检索结果

UNN 科学家改进了用于诊断衰老速度的神经网络

Нейросеть для диагностики скорости старения усовершенствовали учёные ННГУ

罗巴切夫斯基大学的科学家改进了用于诊断衰老速度的神经网络。新的免疫时钟模型被称为SImAge(小免疫年龄)。它建立在 FT-Transformer 深度神经网络的基础上。

RT-2:新模型将视觉和语言转化为行动

RT-2: New model translates vision and language into action

Robotic Transformer 2 (RT-2) 是一种新颖的视觉-语言-动作 (VLA) 模型,它从网络和机器人数据中学习,并将这些知识转化为机器人控制的通用指令。

IEEE 计算智能新兴主题汇刊,第 8 卷,第 3 期,2024 年 6 月

IEEE Transactions on Emerging Topics in Computational Intelligence, Volume 8, Number 3, June 2024

1) 深度学习在 B 型超声分割中的进展:综合综述作者:Mohammed Yusuf Ansari、Iffa Afsa Changaai Mangalote、Pramod Kumar Meher、Omar Aboumarzouk、Abdulla Al-Ansari、Osama Halabi、Sarada Prasad Dakua页数:2126 - 21492) 机器反学习:解决方案和挑战作者:Jie Xu、Zihan Wu、Cong Wang、Xiaohua Jia页数:2150 - 21683) MuralDiff:基于大规模预训练的古代壁画修复扩散作者:Zishan Xu、Xiaofeng

每周回顾 2024 年 6 月 7 日

Weekly Review 7 June 2024

我上周在 Twitter 上发布的一些有趣的链接(我也在 Mastodon、Threads、Newsmast 和 Bluesky 上发布了这些链接):现在实际上有多少人打电话?除了我的家人,最近给我打电话的人都是骗子:https://www.stuff.co.nz/society/350291334/newsable-ai-could-soon-be-answering-your-phone-you至少谷歌正在对其人工智能产生的奇怪答案采取行动:https://futurism.com/the-byte/google-bizarre-ai-answers未来人工智能与人类(特别是客户)关系发展

IEEE 神经网络和学习系统学报,第 35 卷,第 6 期,2024 年 6 月

IEEE Transactions on Neural Networks and Learning Systems, Volume 35, Issue 6, June 2024

1) Editorial Special Issue on Explainable and Generalizable Deep Learning for Medical ImagingAuthor(s): Tianming Liu, Dajiang Zhu, Fei Wang, Islem Rekik, Xia Hu, Dinggang ShenPages: 7271 - 72742) Adversarial Learning Based Node-Edge Graph Attention Networks for Autism Spectrum Disorder Identificatio

关于人工智能和新学习前景的讨论

A chat about AI and the new learning landscape

照片由 Levart_Photographer 在 Unsplash 上拍摄过去几周,你可能已经看到过一些关于人工智能 (AI) 的有趣、吸引人或令人恐惧的新闻,比如 ChatGPT、Claude、LLaMA 和其他界面。你可能听过播客解释或哀叹即将取代旧世界的革命性新世界。目前,对我来说,这一切仍然相当令人困惑,不知道它将如何影响我的日常生活,但我很好奇,也非常谨慎乐观。有一件事是相当肯定的:我们孩子的生活将受到人工智能的巨大影响——而且是以我们无法预测的方式。在教育领域,两大巨头——可汗学院和 Duolingo——上周宣布,他们加入了 ChatGPT 的行列,并被授予早期开发和测试想法的权

#331 – Balaji Srinivasan:如何修复政府、Twitter、科学和 FDA

#331 – Balaji Srinivasan: How to Fix Government, Twitter, Science, and the FDA

Balaji Srinivasan 是天使投资人、技术创始人、哲学家,也是《网络国家:如何开创一个新国家》一书的作者。他曾担任 Coinbase 的首席技术官和 Andreessen Horowitz 的普通合伙人。请查看我们的赞助商来支持此播客:- Policygenius:https://www.policygenius.com/- Blinkist:https://blinkist.com/lex 可享受 25% 的高级折扣- Notion:https://notion.com- Onnit:https://lexfridman.com/onnit 可享受高达 10% 的折扣剧集链接:B

哲学家与变形金刚:神经网络模仿著名认知科学家

Philosophers vs Transformers: Neural net impersonates a famous cognitive scientist

计算机能思考吗?AI 模型能有意识吗?这些和类似的问题经常出现在有关自然语言模型 GPT-3、LAMDA 和其他 transformer 取得的最新 AI 进展的讨论中。尽管如此,它们仍然存在争议,处于悖论的边缘,因为关于大脑如何工作以及思考意味着什么通常存在许多隐藏的假设和误解。没有其他办法,只能明确揭示这些假设,然后探索如何让机器复制人类的信息处理。

#318 – 尼克·莱恩:生命起源、进化、外星人、生物学和意识

#318 – Nick Lane: Origin of Life, Evolution, Aliens, Biology, and Consciousness

尼克·莱恩 (Nick Lane) 是伦敦大学学院的生物化学家,著有《变形金刚》、《重要问题》以及许多其他关于生物学、化学和生命的精彩书籍。请查看我们的赞助商来支持此播客:- Backbone:https://playbackbone.com/lex 获得订购福利- Notion:https://notion.com- BetterHelp:https://betterhelp.com/lex 获得 10% 折扣- Blinkist:https://blinkist.com/lex 获得 25% 的高级折扣 EPISODE LINKS:Nick 的网站:https://nick-lane.ne

使用 transformers 教程进行 3D 医学图像分割

3D Medical image segmentation with transformers tutorial

实现 UNETR 在 BRATS 数据集上执行 3D 医学图像分割

视觉变换器是否像卷积神经网络一样看?

Do Vision Transformers See Like Convolutional Neural Networks?

到目前为止,卷积神经网络 (CNN) 一直是视觉数据的实际模型。最近的研究表明,(Vision) Transformer 模型 (ViT) 可以在图像分类任务上实现相当甚至更优异的性能。这提出了一个核心问题:Vision Transformer 如何解决这些任务?它们是像卷积网络一样工作,还是学习完全不同的视觉表示?通过分析 ViT 和 CNN 在图像分类基准上的内部表示结构,我们发现这两种架构之间存在显着差异,例如 ViT 在所有层上都有更统一的表示。我们探索了这些差异是如何产生的,发现了自我注意力所起的关键作用,它可以实现全局信息的早期聚合,以及 ViT 残差连接,它可以将特征从较低层强烈

计算机视觉中的 transformer:ViT 架构、技巧、窍门和改进

Transformers in computer vision: ViT architectures, tips, tricks and improvements

了解有关计算机视觉中的 Transformer 架构(又名 ViT)的所有知识。

斯坦福 AI 实验室在 ICCV 2021 上的论文

Stanford AI Lab Papers at ICCV 2021

国际计算机视觉会议 (ICCV 2021) 将于下周以线上方式举办。我们很高兴与大家分享 SAIL 的所有成果,您可以在下面找到论文、视频和博客的链接。欢迎直接联系作者,了解更多有关斯坦福大学的工作!已接受论文列表GLoRIA:用于标签高效医学图像识别的多模态全局-局部表示学习框架作者:Mars Huang联系方式:mschuang@stanford.edu关键词:医学图像、自监督学习、多模态融合通过点-体素扩散生成和完成 3D 形状作者:Linqi Zhou、Yilun Du、Jiajun Wu联系方式:linqizhou@stanford.edu链接:论文 | 视频 |网站关键词:扩散、形

斯坦福 AI 实验室论文在 ICCV 2021 上发表

Stanford AI Lab Papers at ICCV 2021

国际计算机视觉会议 (ICCV 2021) 将于下周以线上方式举办。我们很高兴与大家分享 SAIL 的所有成果,您可以在下面找到论文、视频和博客的链接。欢迎直接联系作者,了解更多有关斯坦福大学的工作!已接受论文列表GLoRIA:用于标签高效医学图像识别的多模态全局-局部表示学习框架作者:Mars Huang联系方式:mschuang@stanford.edu关键词:医学图像、自监督学习、多模态融合通过点-体素扩散生成和完成 3D 形状作者:Linqi Zhou、Yilun Du、Jiajun Wu联系方式:linqizhou@stanford.edu链接:论文 | 视频 |网站关键词:扩散、形

语音识别:对不同深度学习方法的回顾

Speech Recognition: a review of the different deep learning approaches

探索最流行的深度学习架构以执行自动语音识别 (ASR)。从循环神经网络到卷积和 transformers。

完整的 Hugging Face 教程:如何构建和训练视觉转换器

A complete Hugging Face tutorial: how to build and train a vision transformer

通过数据集和 transformers 库的动手教程了解 Hugging Face 生态系统。探索如何微调 Vision Transformer (ViT)

多头自注意力机制为何有效:数学、直觉和 10+1 个隐藏的见解

Why multi-head self attention works: math, intuitions and 10+1 hidden insights

通过 10+1 个隐藏的见解和观察,了解有关臭名昭著的 Transformer 的注意力机制的所有知识

理解 SoTA 语言模型 (BERT、RoBERTA、ALBERT、ELECTRA)

Understanding SoTA Language Models (BERT, RoBERTA, ALBERT, ELECTRA)

大家好,现在有大量的语言模型!其中许多都有自己独特的学习“自监督”语言表示的方式,可供其他下游任务使用。在本文中,我决定总结当前的趋势并分享一些关键见解,以将所有这些新方法粘合在一起。😃(幻灯片来源:Delvin 等人,斯坦福 CS224n)问题:上下文无关/原子词表示我们在上一篇文章中从上下文无关方法开始,例如 word2vec、GloVE 嵌入。这些方法的缺点是它们不考虑句法上下文。例如“开立银行账户”与“在河岸上”。单词 bank 的含义取决于单词所处的上下文。解决方案 #1:上下文单词表示借助 ELMo,社区开始构建前向(从左到右)和后向(从右到左)序列语言模型,并使用从这两个模型(连