摘要 全基因组关联研究(GWAS)作为一种有效的遗传研究工具,在作物抗病育种中得到了广泛的应用,可以在全基因组中识别与抗病相关的遗传标记和基因,为育种提供分子基础。本研究介绍了 GWAS 的基本原理和方法,通过具体的应用实例展示了 GWAS 在作物抗病育种中的应用,随后讨论了 GWAS 在作物抗病育种中的优势和局限性,并展望了 GWAS 在作物抗病育种中未来的发展方向,包括结合高通量测序技术、多组学数据整合、精准育种技术的应用。GWAS 为作物抗病育种提供了一种新的研究思路和方法,有望促进抗病品种的快速培育和农业生产的可持续发展。 关键词 全基因组关联研究;作物抗病性;育种;遗传标记;精准育种
产业园区改造、本土企业支援、产业集群竞争力提升项目、船舶研发、①、②、建立海洋环保船舶新一代隔热材料零部件研发基地、海上风电基础设施、④、设计生产专业技术开发、电池再利用、电力推进小型船舶及系统、ECU、⑤、基于氢燃料电池的休闲船建造示范项目、建立中小型船舶下水场基础、⑥、⑦、建立中小型船舶高速发动机智能寿命诊断管理支持系统、⑦、⑨、专业教育中心、船舶生产技术专业人才培养项目、智能制造高级人才培养、O&M、⑩、⑪、支持大中小互利联合培训中心、⑫
通过分层相关性传播增强核电站 AI 模型的可解释性 Seung Geun Kim a*、Seunghyoung Ryu a、Hyeonmin Kim b、Kyungho Jin b、Jaehyun Cho ba 应用人工智能实验室/b 韩国原子能研究院风险评估与管理研究团队,韩国大田儒城区大德大路 989 号街 111,34057 * 通讯作者:sgkim92@kaeri.re.kr 1.简介 随着人工智能 (AI) 技术的快速发展,各个领域的应用数量巨大。核领域也紧跟这一趋势,许多研究利用 AI 模型解决事件诊断和自动/自主操作等问题。然而,占据近期 AI 技术应用最大份额的深度神经网络 (DNN) 具有不透明且可解释性低的局限性。对于基于 DNN 的模型,很难了解模型的内部逻辑或模型如何从给定的输入推断出输出。由于这一限制,尽管基于 DNN 的模型的性能可以接受,但人们对将其实际应用于安全关键领域和与道德/法律问题相关的领域仍犹豫不决。为了克服可解释性低的限制,已经提出了许多可解释的人工智能 (XAI) 方法。XAI 方法可以提供详细的解释,例如模型的内部逻辑和输入与输出之间的关系。然而,尽管可解释性问题对于安全关键的核领域至关重要,但缺乏处理 XAI 的研究。在本研究中,为了提高核领域人工智能模型的可解释性和实用性,研究了分层相关性传播 (LRP) [1],它是 XAI 方法之一,与其他 XAI 方法相比,它在许多应用中表现出更好的性能。论文的其余部分组织如下。在第 2 章中,对 XAI 和 LRP 进行了简要说明。第 3 章描述了可行性检查实验,第 4 章总结了本文。 2. 前言 2.1 可解释人工智能 可解释人工智能 (XAI) 是一种使人类轻松理解 AI 模型的技术。大多数 AI 模型在数据处理和解决问题的方法方面与人类不同。例如,AI 模型识别具有像素 RGB 值的图像,而人类则不能。提出 XAI 是为了减轻理解 AI 模型内部过程或推断某些输出的原因的难度。
威斯康星州土壤测试计划和养分施用指南最初是在 20 世纪 60 年代初制定的。此后,指南经过多次修订,以反映研究进展、额外的相关性和校准数据以及哲学观点的转变。最新修订纳入了额外的研究数据,包括对玉米 N 施用率指南的最大氮回报 (MRTN) 理念的更新,以及使用美国农业部自然资源保护局 (USDA-NRCS) 数据库的数据定义土壤组和土壤产量潜力的新方法。威斯康星州常规农场土壤 (RFS) 计算机程序已被威斯康星州农业、贸易和消费者保护部 (WDATCP) 认证的土壤测试实验室用来生成养分和石灰建议,该程序已更新以反映本文档中的更改。本出版物中的指南已纳入营养管理规划软件 SnapPlus ( http://snapplus.wisc.edu/ )。