解释性关键词检索结果

“宪法互惠”

The “Constitutional Interregnum”

- 由新政的民主党人,有什么可以与1/3+一名参议院成员支持的总统可以做的?由于他不能被弹each和定罪,这需要派遣者的2/3,而且从最高法院去年7月开始,他在行使总统权力的情况下超越了刑法,显然不是。 乔什·马歇尔(Josh Marshall)上周写了一篇出色的文章,该论文与我的思想非常接近,描述了“宪法事故”。这是它的观点:[c]美国的伊维奇民主党人对法律和宪法法学的本质主义实在是实质性的,尤其是在腐败的联邦司法机构中,现在存在。 [例如,]特朗普诉美国……不是我不同意的决定。这是错误的。 。 。 。 [w] e必须脱离这就是法律的想法。它不是。这些是欺诈性决定。我们生活在法律,解释性合法

建议用于家乡税收和纳税申报表 - 现在纳税申报表可能更方便的4个原因

ふるさと納税、確定申告のススメ-今や、確定申告の方が便利かもしれない4つの理由

使用一站式特殊系统的超过500万人超过500万人,而使用家乡税收捐赠的1000万人。如果我们将其限制在收入有薪收入的人身上,则认为大多数人都在使用一站式特殊系统。选择一站式特殊系统的原因可能是因为它被认为“比提交纳税申报表更方便,更容易”。但是,您不应忽略选择提交纳税申报表的好处。我想介绍我们建议提交纳税申报表而不是一站式特殊系统的四个原因。最近的一站式特殊系统非常方便,但它的便利性很大程度上是由于数字化。直到几年前,您才不再那么方便,因为您必须提交带有我的号码卡或类似副本的纸质申请表。由于数字化的进步,曾经非常困难的申报申报表变得更加方便和简单。如果您在申请在线一站式应用程序时使用智能手机和

AI是否可以预测未来疾病将如何传播? 可以由AI设计下一个Triple-A游戏吗? 专家反应:塔斯马尼亚州超过150个假杀手鲸的质量搁浅 澳大利亚的道路安全即将到来? semaglutide使用与眼睛状况相关的使用,但风险可能低于我们认为的 '雾收集'可以从世界上最干燥地区的稀薄空气中拉出水 不要吃面包屑 - 使电子设备改为

Is AI the answer to predicting how future diseases will spread?

国际科学家,包括澳大利亚人,称人工智能(AI)有可能改变传染病流行病学,这是对疾病如何传播的研究。专家概述了AI的最新进展如何帮助回答关键问题,并讨论可用于常规收集的传染病监测数据的现有AI方法。他们还考虑使用AI进行流行病学的社会背景,包括解释性,安全性,问责制和道德等问题。最后,他们确定了当前AI的一些解决流行病学的局限性,包括无法解释推理,大多数现有模型仅限于文本或语音输出的事实,以及大型科技公司的所有权,这些公司花费了巨额资金来培训AIS。并选择何时以及如何发布新的迭代。作者总结说,等待新的AI部署来微调它们以回答流行病学问题可能不是可持续或公平的。

《IEEE 神经网络与学习系统学报》,第 36 卷,第 2 期,2025 年 2 月

IEEE Transactions on Neural Networks and Learning Systems, Volume 36, Issue 2, February 2025

1) 特邀编辑:机器学习泛化、稳健性和可解释性的信息论方法特刊作者:Badong Chen、Shujian Yu、Robert Jenssen、Jose C. Principe、Klaus-Robert Müller页数:1957 - 19582) 用于阿尔茨海默病分类和致病因素识别的社区图卷积神经网络作者:Xia-An Bi、Ke Chen、Siyu Jiang、Sheng Luo、Wenyan Zhou、Zhaoxu Xing、Luyun Xu、Zhengliang Liu、Tianming Liu页数:1959 - 19733) RSS-Bagging:通过训练数据的 Fisher 信息

Vidya Rajasekhara Reddy Tetala,AI 和 ML 架构师 – 医疗保健和云平台 — AI 和 ML 转型医疗保健、确保数据准确性、减少偏见、生成 AI、医疗保健数据系统挑战等

Vidya Rajasekhara Reddy Tetala, AI & ML Architect – Healthcare & Cloud Platforms — AI & ML Transforming Healthcare, Ensuring Data Accuracy, Bias Mitigation, Generative AI, Healthcare Data Systems Challenges, and More

在这次采访中,医疗保健和云平台的 AI 和 ML 架构师 Vidya Rajasekhara Reddy Tetala 分享了他对人工智能和机器学习在医疗保健领域的变革性作用的见解。凭借在 AI 驱动解决方案方面的专业知识,Vidya 探索了预测分析、模型可解释性和偏差缓解等关键主题。他还深入研究了[…]

巴兹尔·谢赫 (Bazil Shaikh) 谈卢比的未来和历史

Rupee’s Future and History with Bazil Shaikh

Puja Mehra 在这集精彩的播客节目中与 Bazil Shaikh 进行了交谈,探讨了卢比的未来和历史:在这一集中,记者 Puja Mehra 与前印度储备银行官员、《魔术师的把戏:印度纸币的解释性历史》一书的作者 Bazil Shaikh 一起。他们讨论了卢比的历史和演变,[…]

使用 AWS Audit Manager 调整和监控由 Amazon Bedrock 提供支持的保险援助聊天机器人,使其符合负责任的 AI 原则

Align and monitor your Amazon Bedrock powered insurance assistance chatbot to responsible AI principles with AWS Audit Manager

应开发生成式 AI 应用程序,并采用足够的控制来指导 FM 的行为。负责任的 AI 考虑因素(例如隐私、安全性、可控性、公平性、可解释性、透明度和治理)有助于确保 AI 系统值得信赖。在这篇文章中,我们演示了如何使用 AWS Audit Manager 上的 AWS 生成式 AI 最佳实践框架从负责任的 AI 角度评估此保险索赔代理。

AIhub 月度文摘:2024 年 11 月——动态分面搜索、肾脏交换问题和 AfriClimate AI

AIhub monthly digest: November 2024 – dynamic faceted search, the kidney exchange problem, and AfriClimate AI

欢迎阅读我们的每月文摘,在这里您可以了解您可能错过的任何 AIhub 故事,阅读最新消息,回顾最近发生的事件等等。本月,我们听取了 AfriClimate AI 联合创始人 Amal Nammouchi 的讲话,了解肾脏交换问题,并了解如何提高逻辑回归模型的可解释性。[…]

跟踪资金:联邦机构 2024 财年特定规定

Tracking the Funds: Specific Fiscal Year 2024 Provisions for Federal Agencies

美国政府问责署的发现《2024 年综合拨款法案》和《2024 年进一步综合拨款法案》及其附带的联合解释性声明指定约 146 亿美元用于 2024 财年的 8,098 项社区项目资金/国会指示支出 (CPF/CDS) 拨款。相比之下,2023 财年的 7,233 项拨款为 153 亿美元。这些拨款指定特定受助人用于其社区的特定项目。在 2024 财年,国会拨款给 19 个联邦机构(与 2023 财年的机构相同),以使用指定资金管理项目。这些拨款适用于目的广泛的项目,例如社区和区域发展、自然资源和环境以及交通运输。对于 2024 财年,指定资金用于各种类型的受助者(例如高等教育组织)以及指定资金项

#452 – Dario Amodei:Anthropic 首席执行官谈 Claude、AGI 以及人工智能和人类的未来

#452 – Dario Amodei: Anthropic CEO on Claude, AGI & the Future of AI & Humanity

Dario Amodei 是 Anthropic 公司的首席执行官,该公司创造了 Claude。Amanda Askell 是一名人工智能研究员,致力于研究 Claude 的性格和个性。 Chris Olah 是一位致力于机械可解释性的人工智能研究员。感谢您的聆听❤查看我们的赞助商:https://lexfridman.com/sponsors/ep452-sc请参阅下面的时间戳、成绩单,并提供反馈、提交问题、联系 Lex 等。成绩单:https://lexfridman.com/dario-amodei-transcript联系 LEX:反馈 - 向 Lex 提供反馈:https://lex

使用 PCA 进行异常值检测的简单示例

A Simple Example Using PCA for Outlier Detection

在异常值检测之前执行 PCA 转换可提高准确性、速度和内存使用率本文继续介绍使用 PCA(主成分分析)进行异常值检测的一系列应用,紧随其后的是使用 PCA 进行异常值检测。那篇文章描述了 PCA 本身,并介绍了使用 PCA 进行异常值检测的两种主要方法:评估重构误差,以及在 PCA 转换空间上运行标准异常值检测器。它还给出了第一种方法的示例,即使用重构误差,使用 PyOD 提供的 PCA 和 KPCA 检测器可以轻松完成。本文介绍了第二种方法,我们首先使用 PCA 转换数据空间,然后在此上运行标准异常值检测。正如上一篇文章所述,在某些情况下,这可能会降低可解释性,但在准确性、执行时间和内存使用

新的生成AI工具打开音乐创作的门

New generative AI tools open the doors of music creation

我们最新的AI音乐技术现已在MusicFX DJ,Music AI Sandbox和YouTube短裤 宣布一套全面的,开放的稀疏自动编码器,用于语言模型可解释性。 新的AI系统设计成功结合靶分子的蛋白质,具有推进药物设计,疾病理解等的潜力。 使用深度学习来解决计算量子化学中的基本问题并探索物质与光的相互作用 该模型可以极大地提高性能,并在跨模式的长篇文化理解中取得了突破。 在自然通信中发表的一系列实验中,我们发现证据表明人类判断确实受到对抗性扰动的系统影响。 这是人工智能(AI)研究及其实用应用领域中令人难以置信的一年。 在自然界发表的一篇论文中,我们介绍了FunSearch,这是

FormulaFeatures:一种为可解释模型生成高预测性特征的工具

FormulaFeatures: A Tool to Generate Highly Predictive Features for Interpretable Models

使用基于数字特征的算术组合自动设计的简洁、高度预测的特征创建更易于解释的模型在本文中,我们研究了一个名为 FormulaFeatures 的工具。这主要用于可解释模型,例如浅层决策树,其中少量简洁且高度预测的特征可以极大地帮助提高模型的可解释性和准确性。机器学习中的可解释模型本文继续我关于可解释机器学习的系列文章,之前的文章包括 ikNN、加法决策树、遗传决策树和 PRISM 规则。如前几篇文章所述(并在那里更详细地介绍),通常有强烈的动机使用可解释的预测模型:每个预测都可以很好地理解,我们可以确信模型将在未来看不见的数据上表现合理。有许多模型可以提供可解释的 ML,但不幸的是,这些模型比我们

跟踪资金:2022 财年项目样本显示资金已用于预期目的,但接受者遇到了一些挑战

Tracking the Funds: Sample of Fiscal Year 2022 Projects Shows Funds Were Awarded for Intended Purposes but Recipients Experienced Some Challenges

美国政府问责署发现《2022 年综合拨款法案》应国会议员的要求,为 4,963 个项目拨款共计 91 亿美元。该法案及其随附的联合解释性声明 (JES) 包括具体条款,指定一定数量的资金用于特定接收者,例如非营利组织或地方政府,用于特定项目。这些条款在众议院被称为社区项目资金 (CPF),在参议院被称为国会指示支出 (CDS)。2022 财年 (FY) 的项目由 18 个联邦机构管理。一般来说,2022 财年 CPF/CDS 接收者计划将资金用于该法案及其随附的 JES 中规定的预期用途。接收者对项目目的的描述与 JES 的描述大致一致。具体而言,美国政府问责署发现其样本中所有获得资金的项目的

Genomics England 使用 Amazon SageMaker 根据多模态数据预测癌症亚型和患者生存率

Genomics England uses Amazon SageMaker to predict cancer subtypes and patient survival from multi-modal data

在这篇文章中,我们详细介绍了我们在创建两个概念验证 (PoC) 练习方面的合作,这些练习围绕多模态机器学习进行生存分析和癌症亚型分析,使用基因组(基因表达、突变和拷贝数变异数据)和成像(组织病理学幻灯片)数据。我们提供了关于使用 Amazon SageMaker 在 AWS 上构建复杂 ML 工作流的可解释性、稳健性和最佳实践的见解。这些多模态管道正在 Genomics England 癌症队列中使用,以增强我们对癌症生物标志物和生物学的理解。

XPER:揭示预测性能的驱动力

XPER: Unveiling the Driving Forces of Predictive Performance

一种分解您最喜欢的性能指标的新方法照片由 Sira Anamwong 在 123RF 上拍摄与 S. Hué、C. Hurlin 和 C. Pérignon 合著。I - 从解释模型预测到解释模型性能敏感 AI 系统的可信度和可接受性在很大程度上取决于用户理解相关模型或至少是其预测的能力。为了揭开不透明 AI 应用的面纱,可解释 AI (XAI) 方法(例如事后可解释性工具(例如 SHAP、LIME))如今被广泛使用,并且从其输出中产生的见解现在已被广泛理解。除了单个预测之外,我们在本文中展示了如何使用可解释性能 (XPER) 方法识别任何分类或回归模型的性能指标(例如 AUC、R2)的驱动因

微型神经网络如何表示基本函数

How Tiny Neural Networks Represent Basic Functions

通过简单的算法示例对机械可解释性进行简单介绍简介本文展示了小型人工神经网络 (NN) 如何表示基本功能。目标是提供有关 NN 工作原理的基本直觉,并作为机械可解释性的简单介绍——该领域旨在对 NN 进行逆向工程。我提供了三个基本函数的示例,使用简单的算法描述了每个函数,并展示了如何将算法“编码”到神经网络的权重中。然后,我探索网络是否可以使用反向传播来学习算法。我鼓励读者将每个示例视为一个谜语,并在阅读解决方案之前花一点时间。机器学习拓扑本文尝试将 NN 分解为离散操作并将其描述为算法。另一种方法可能更常见、更自然,即研究不同层中线性变换的连续拓扑解释。以下是一些有助于增强拓扑直觉的优秀资源:

Gemma范围:帮助安全社区阐明了语言模型的内部运作

Gemma Scope: helping the safety community shed light on the inner workings of language models

宣布一套全面的,开放的稀疏自动编码器,用于语言模型可解释性。