Econometrics — a second-best explanatory practice
作为因果解释力的衡量标准,R 平方也没有表现得更好。这里也出现了解释方差而不是水平的问题——如果它衡量因果影响,它必须是对方差的影响。但我们往往不关心经济变量方差的原因,而是 [...]
Mechanistic Interpretability: Peeking Inside an LLM
LLM 的类人认知能力是真是假?信息如何通过神经网络传输?法学硕士里面是否隐藏着知识?《机械可解释性:法学硕士内部窥探》一文首先出现在《走向数据科学》上。
When Shapley Values Break: A Guide to Robust Model Explainability
Shapley 值是最常见的可解释性方法之一,但它们可能会产生误导。了解如何克服这些限制以获得更好的见解。《当沙普利价值观被打破:稳健模型可解释性指南》一文首先出现在《走向数据科学》上。
Mapping the Design Space of User Experience for Computer Use Agents
基于大型语言模型 (LLM) 的计算机使用代理通过与可用的 UI 元素交互来执行用户命令,但对于用户希望如何与这些代理交互或哪些设计因素对其用户体验 (UX) 至关重要,人们知之甚少。我们进行了一项两阶段的研究来绘制计算机使用代理的用户体验设计空间。在第一阶段,我们审查了现有系统,以制定用户体验考虑因素的分类法,然后通过采访八位用户体验和人工智能从业者来完善它。由此产生的分类法包括用户提示、可解释性、用户控制和用户……等类别。
Robot Talk Episode 143 – Robots for children, with Elmira Yadollahi
Claire 与兰卡斯特大学的 Elmira Yadollahi 讨论了孩子们如何与机器人互动和建立关系。 Elmira Yadollahi 是兰卡斯特大学计算机科学助理教授。她拥有瑞士洛桑联邦理工学院 (EPFL) 和葡萄牙高级技术学院 (Instituto Superior Técnico) 的机器人和计算机科学联合博士学位。她的研究解决了机器人技术的可解释性,[...]