计算的关键词检索结果

超冷量子比特:无误差量子计算的关键

Supercold Qubits: The Key to Error-Free Quantum Computing

一个科学家团队开发出了一种提高量子计算效率的突破性技术。通过创新性地使用量子制冷机将量子比特冷却到接近绝对零度,他们有效地将初始误差降至最低,这对于量子计算的可靠性至关重要。该方法不仅提高了量子计算的精度,而且开辟了新的可能性[...]

光开关纳米晶体点燃了人工智能和计算的未来

Light-Switching Nanocrystals Ignite the Future of AI and Computing

研究人员发现了可以在发光状态之间快速切换的纳米晶体,为光学计算提供了有希望的进步。这项技术可以彻底改变数据处理和人工智能,使设备更快、更节能,同时扩展电信和医学成像的能力。纳米晶体技术取得突破 包括俄勒冈州立大学化学研究员在内的科学家已经取得了 [...]

如何解决计算的 AI 能源问题:反向运行一切

How to fix computing's AI energy problem: run everything backwards

人工智能浪费了大量的能源 - 但将每个计算机计算运行两次,首先向前,然后向后,可以大大遏制这个问题

为什么模拟 AI 可能是节能计算的未来

Why Analog AI Could Be the Future of Energy-Efficient Computing

人工智能改变了我们的生活方式,为我们日常依赖的工具和服务提供动力。从聊天机器人到智能设备,大部分进步都来自数字人工智能。它非常强大,可以处理大量数据以提供令人印象深刻的结果。但这种能力的代价是巨大的:能源消耗。数字人工智能需要 […]The post Why Analog AI Could Be the Future of Energy-Efficient Computing appeared first on Unite.AI.

利用革命性的超导处理器释放量子计算的全部力量

Unlocking the Full Power of Quantum Computing With a Revolutionary Superconducting Processor

一种新的量子处理器设计采用模块化路由器,可增强量子比特连接,摆脱传统的 2D 网格限制。这种方法旨在实现可扩展、容错的量子计算,通过解决传统计算机无法解决的问题来改变行业。芝加哥大学普利兹克分子医学学院的量子处理器创新研究人员 [...]

alphaqubit应对量子计算的最大挑战之一

AlphaQubit tackles one of quantum computing’s biggest challenges

两个新的AI系统,Aloha释放和Demostart,帮助机器人学会执行需要灵巧运动的复杂任务

AlphaQubit 解决了量子计算的最大挑战之一

AlphaQubit tackles one of quantum computing’s biggest challenges

我们的新 AI 系统可以准确识别量子计算机内部的错误,有助于提高这项新技术的可靠性。

alphaqubit应对量子计算的最大挑战之一

AlphaQubit tackles one of quantum computing’s biggest challenges

我们的新AI系统准确地识别了量子计算机内的错误,从而使这项新技术更可靠。

alphaqubit应对量子计算的最大挑战之一

AlphaQubit tackles one of quantum computing’s biggest challenges

推进自适应AI代理,赋予3D场景创建能力,并创新LLM培训以进行更智能,更安全的未来

AI 与云计算的关系

AI’s relationship with cloud computing

为什么重要:探索人工智能与云计算的关系,以增强可扩展性、创新、性能和灵活性。

Duo-LLM:用于研究大型语言模型中的自适应计算的框架

Duo-LLM: A Framework for Studying Adaptive Computation in Large Language Models

这篇论文被 NeurIPS 2024 的高效自然语言和语音处理 (ENLSP) 研讨会接受。大型语言模型 (LLM) 通常使用固定的计算预算逐个生成输出,导致资源利用率低下。为了解决这一缺点,混合专家 (MoE) 模型、推测解码和早期退出策略方面的最新进展利用了计算需求可能根据输入的复杂性和性质而有很大差异的洞察力。然而,确定动态执行的最佳路由模式仍然是一个开放的问题……

由光和磁铁控制的新型存储芯片有朝一日可能会降低 AI 计算的耗电量

New memory chip controlled by light and magnets could one day make AI computing less power-hungry

一种新型超快存储器使用光信号和磁铁来高效处理和存储数据。

光速突破:光子内存计算的曙光

Light-Speed Breakthrough: The Dawn of Photonic In-Memory Computing

研究人员公布了一种新的光子内存计算方法,有望显著推动光学计算的发展。该技术利用磁光材料,实现了高速、低能耗和耐用的内存解决方案,适合与现有计算技术集成。光子内存计算全球电气工程师团队首次开发出一种新的光子内存计算方法 [...]

认识已知最大的素数:它有 4100 万位数字,是使用 GPU 计算的

Meet the largest known prime: it’s got 41 million digits and was calculated using GPUs

奇异的素数世界又添新成员。

Dendristor:神经拟态计算的新一步

Дендристор: новый шаг в нейроморфных вычислениях

树突如何改变人工智能。

2024/06/20 DARPA 研究人员重点介绍量子计算的应用领域

2024/06/20 DARPA Researchers Highlight Application Areas for Quantum Computing

在探索量子计算机变革潜力的过程中,关于量子的讨论中仍然缺少一个基本要素:哪些基准可以预测未来的量子计算机是否具有真正的革命性? 2021 年,DARPA 的量子基准测试计划启动,目标是重新发明衡量量子计算进展的关键指标,并将科学严谨性应用于通常未经证实的关于量子计算未来前景的说法。

HPSF:开源是高性能计算的未来吗?

Фонд HPSF: будущее высокопроизводительных вычислений за открытым ПО?

Новый проект Linux сделает суперкомпьютеры доступнее для ученых, госучреждений 和 промышленности.

新工作扩展了计算的热力学理论

New work extends the thermodynamic theory of computation

每个计算系统,无论是生物的还是合成的,从细胞到大脑再到笔记本电脑,都有成本。这不是很容易辨别的价格,而是与运行程序所需的工作以及该过程中散发的热量相关的能源成本。