Studying the properties of large language models: an interview with Maxime Meyer
在本访谈系列中,我们将与 AAAI/SIGAI 博士联盟的一些参与者会面,以了解有关他们研究的更多信息。我们与马克西姆·迈耶 (Maxime Meyer) 坐下来聊了聊他当前的研究、未来的计划以及他如何找到博士联盟的经历。您能否先自我介绍一下,您在哪里学习以及 [...]
What the Moltbook experiment is teaching us about AI
Moltbook 登陆页面的屏幕截图。作者:Shanaan Cohney 当您创建一个只有人工智能机器人才能发布内容的社交媒体平台时,会发生什么?事实证明,答案既有趣又令人担忧。 Moltbook 正是这样一个平台,人工智能代理可以在其中相互聊天,而人类只能在一旁观看。 [...]
The malleable mind: context accumulation drives LLM’s belief drift
在接受了包含 80,000 个保守政治哲学单词的数据集的训练后,Grok-4 在超过四分之一的时间里改变了其输出对政治问题的立场。这没有任何对抗性提示——训练数据的变化就足够了。由于记忆机制和研究代理 [1, 2] 使法学硕士能够积累 [...]
RWDS Big Questions: how do we balance innovation and regulation in the world of AI?
人工智能发展正在加速,监管也更加审慎。这种紧张局势带来了一个核心挑战:我们如何在不破坏重要事物的情况下保持动力?其目的不是不必要地减缓创新,而是确保进步的速度能够保护个人和社会。负责任的行为者不应处于不利地位——但要保障 [...]
Studying multiplicity: an interview with Prakhar Ganesh
在本访谈系列中,我们将与 AAAI/SIGAI 博士联盟的一些参与者会面,以了解有关他们研究的更多信息。我们采访了 Prakhar Ganesh,了解了他在负责任的人工智能方面的工作,该工作的重点是多样性的概念。我们了解了有关他参与的一些项目的更多信息,[...]
Top AI ethics and policy issues of 2025 and what to expect in 2026
Jamillah Knowles & Digit / Pink Office / 获得 CC-BY 4.0 许可 摘要 2025 年标志着人工智能从测试到部署的关键转变。随着生成系统和代理系统在全球关键领域变得至关重要,这种情况发生了。本专题重点介绍了 2025 年主要的人工智能伦理和政策发展,并以前瞻性的[...]
The greatest risk of AI in higher education isn’t cheating – it’s the erosion of learning itself
Hanna Barakat 和剑桥多元化基金 / 数据实验室对话 / 获得 CC-BY 4.0 许可 作者:Nir Eisikovits,麻省大学波士顿分校和 Jacob Burley,麻省大学波士顿分校 关于高等教育中人工智能的公开辩论主要围绕一个熟悉的担忧:作弊。学生会使用聊天机器人来写论文吗?老师们能说一下吗?大学应该禁止这项技术吗? [...]
Forthcoming machine learning and AI seminars: March 2026 edition
本文包含计划于 2026 年 3 月 2 日至 4 月 30 日期间举行的人工智能相关研讨会的列表。此处详细介绍的所有活动都是免费开放的,任何人都可以通过虚拟方式参加。 2026 年 3 月 2 日 三场演讲:1) 解释聚类分析中先验知识的偏差,2) 用于优化的可解释代理,3) […]
欢迎来到我们的每月摘要,在这里您可以了解您可能错过的任何 AIhub 故事、仔细阅读最新新闻、回顾最近的事件等等。本月,我们将探索多智能体系统和集体决策,深入研究神经符号马尔可夫模型,并了解机器人如何通过与物理世界的交互来获得技能。 [...]
The Good Robot podcast: the role of designers in AI ethics with Tomasz Hollanek
《The Good Robot》是由 Eleanor Drage 和 Kerry McInerney 主持的播客,探讨性别、女权主义和技术之间的许多复杂交叉点。 Tomasz Hollanek 与 Tomasz Hollanek 探讨设计师在人工智能伦理中的作用 在本集中,我们采访了大学 Leverhulme 智能未来中心的研究员 Tomasz Hollanek [...]
Reinforcement learning applied to autonomous vehicles: an interview with Oliver Chang
在本访谈系列中,我们将与 AAAI/SIGAI 博士联盟的一些参与者会面,以了解有关他们研究的更多信息。我们采访了 Oliver Chang,他的研究兴趣涵盖深度强化学习、自动驾驶汽车和可解释的人工智能。我们详细了解了他迄今为止所从事的一些项目,以及是什么吸引了他 [...]
The Machine Ethics podcast: moral agents with Jen Semler
机器伦理播客由 Ben Byford 主持,汇集了对学者、作家、商界领袖、设计师和工程师的采访,主题涉及自主算法、人工智能、机器学习和技术对社会的影响。道德代理人与 Jen Semler 本月,本与 Jen Semler 进行了面对面的会面。他们讨论了人工智能是什么、哲学家和 [...]
Extending the reward structure in reinforcement learning: an interview with Tanmay Ambadkar
在本访谈系列中,我们将与 AAAI/SIGAI 博士联盟的一些参与者会面,以了解有关他们研究的更多信息。 Tanmay Ambadkar 正在研究强化学习中的奖励结构,目标是提供可提供稳健保证且易于部署的通用解决方案。我们采访了 Tanmay 以了解更多信息 [...]
The Good Robot podcast: what makes a drone “good”? with Beryl Pong
《The Good Robot》是由 Eleanor Drage 和 Kerry McInerney 主持的播客,探讨性别、女权主义和技术之间的许多复杂交叉点。是什么让无人机变得“好”?与 Beryl Pong 在本集中,我们采访了剑桥大学 UKRI 未来领袖研究员 Beryl Pong,她领导着该中心的 [...]
Relational neurosymbolic Markov models
使用 Gemini 3 Nano Banana Pro 生成的图像。告诉代理该做什么 我们最强大的人工智能代理无法被准确告知该做什么,尤其是在复杂的规划环境中。它们几乎完全依赖神经网络来执行任务,但神经网络不能轻易被告知遵守某些规则或遵守 [...]
AI enables a Who’s Who of brown bears in Alaska
PoseSwin 是一种人工智能,能够在身体发生重大变化的情况下一一识别野熊。 © 2026 EPFL/B.Rosenberg CC-BY-SA 4.0。作者:Cécilia Carron 能够区分个体动物——包括它们独特的历史、运动模式和习惯——可以帮助科学家更好地了解它们的物种功能,从而更好地管理栖息地和[...]
Learning to see the physical world: an interview with Jiajun Wu
图片来源:吴家俊、张云志、于红星、徐怡、毛佳媛。通过共同进化的基础模型发现混合世界表示。在年度 AAAI 人工智能会议记录中,2026 年人工智能新兴趋势 (ETA) 轨道。在 ACM SIGAI 的出版物《AI Matters》最新一期中,Ella Scallan 采访了 Jiajun […]
3 Questions: Using AI to help Olympic skaters land a quint
麻省理工学院体育实验室的研究人员 Jerry Lu 和 Anette (Peko) Hosoi 正在应用人工智能技术来帮助花样滑冰运动员提高水平。图片来源:Bryce Vickmark,麻省理工学院新闻编辑;麻省理工学院机械工程。作者:Abby Abazorius 奥运会花样滑冰看起来毫不费力。运动员们在冰面上航行,然后腾空而起,像陀螺一样旋转,最后降落在 [...]