摘要 增强子-启动子环路模型长期以来一直主导着基因调控领域,其中增强子通过物理接触激活其靶基因。然而,由于存在替代机制的证据以及缺乏系统验证(主要是由于缺乏合适的实验技术),该模型的普遍性受到了质疑。在本研究中,我们提出了一种新的基于 MNase 的邻近连接方法,称为 MChIP-C,该方法可以在基因组范围内以单核小体分辨率测量蛋白质介导的染色质相互作用。通过应用 MChIP-C 研究 K562 细胞中以 H3K4me3 启动子为中心的相互作用,我们发现与基于限制性内切酶的 C 方法相比,它具有大大提高的分辨率和灵敏度。这使我们能够将 EP300 组蛋白乙酰转移酶和 SWI/SNF 重塑复合物确定为建立和/或维持增强子-启动子相互作用的潜在候选者。最后,利用已发表的 CRISPRi 筛选数据,我们发现大多数经过功能验证的增强子确实与其同源启动子发生物理相互作用,支持增强子-启动子环路模型。
肿瘤衍生的细胞外囊泡(EV)包含包括DNA在内的核酸。几项研究强调了EV衍生的DNA(EVDNA)作为循环生物标志物的潜力,甚至证明EVDNA可以在敏感性方面胜过无细胞的DNA(CFDNA)。在这里,我们评估了EVS作为晚期胰腺癌患者肿瘤衍生DNA的潜在来源。eVDNA,以确定DNA是否主要位于内部还是外部(表面结合)电动汽车。为了评估方法学是否影响结果,我们使用四种不同的EV分离和差异离心分离进行分离以分离大型EV。我们的结果表明,电动汽车的DNA含量明显小于从相同的等离子体体积分离的CFDNA含量(p <0.001)。大多数检测到的EvDNA也位于囊泡的外部。此外,EV中肿瘤衍生的DNA的比例类似于CfDNA中发现的DNA。总而言之,我们的结果表明,作为肿瘤衍生的DNA来源的EvDNA的定量不会添加信息,至少在患有晚期胰腺癌患者中获得的信息。
摘要自动移动机器人(AMR)之间的合作,包括无人驾驶汽车(UAV),无人接地车辆(UGV)和/或无人的地表车辆(USV),可以显着增强其功能,使它们能够解决超出个人机器人的更复杂的任务。但是,为了充分利用这种合作,对所交换信息的综合理解(以语义互操作性为止)至关重要。实现这些机器人之间的语义互操作性需要深入了解相关信息及其基本结构。为了应对这一挑战,本文介绍了专门为AMR开发的平台和与技术无关的信息模型。该模型旨在通过确保语义互操作能力的方式构建信息来促进协作。本文概述了模型的开发过程,从相关科学文献的信息结构化结构化开始,从而产生了代表AMR域内知识和语义的基础框架。通过涉及多个AMR的用例证明了信息模型的实际应用。此外,本文还提供了有关所采用方法论的见解,强调了系统文献评论的重要性,并与从业人员合作以完善和验证模型。它还讨论了理论和实际含义,解决了研究过程中遇到的潜在局限性。
在传统(经典)纠错中,Levenshtein 于 1966 年引入的删除纠错 [1] 近来引起了广泛关注(例如,参见 [2] 及其参考文献)。在纠正擦除时,接收方知道擦除的位置 [3]–[5]。与此相反,接收方不知道删除的位置,这给纠正删除和构造适合删除纠错的代码增加了额外的难度。部分由于删除纠错和量子纠错的共同困难,量子删除纠错的研究最近才刚刚开始 [6]–[8]。这些研究提供了量子删除纠错码的具体示例。 [6] 提出了第一个系统地构造1-删除校正二元量子码,其中对任意正整数k,构造了((2 k +2 − 4 , k )) 2 码。最近,[9],[10] 提出了第一个系统地构造t-删除校正二元量子码,适用于任意正整数t。现有研究存在以下问题:(1)没有系统地构造纠正1以上删除的非二元量子码。(2)现有的稳定器量子纠错研究不能以明显的方式重复使用,而置换不变码
摘要。我们通过将结构化的霓虹灯方法框架与大语言模型(LLMS)相结合,以将自然语言域描述转化为Tur-The语法本体,以解决本体学习的任务。本文的主要贡献是针对域 - 不稳定建模量身定制的及时管道,例如通过应用于特定领域的案例研究:葡萄酒本体论。使用管道用于开发霓虹灯-GPT,一种自动本体模型的工作流程及其概念实现的证明,并集成在隐义平台的顶部。NEON-GPT利用了霓虹灯方法和LLMS生成型的系统方法来促进更有效的本体发展过程。我们通过使用斯坦福葡萄酒本体论作为黄金标准进行全面评估来评估所提出的方法。获得的结果表明,LLM并未完全能够执行本体开发所需的程序任务,并且缺乏所需的推理技能和领域专业知识。总体而言,LLM需要与连续知识工程任务的工作流或轨迹工具集成。尽管如此,LLMS可以大大减轻所需的时间和专业知识。我们的代码基础可公开用于研究和开发目的,可访问:https://github.com/andreamust/neon-gpt。
人工智能 (AI) 有可能极大地改善社会,但与任何强大的技术一样,它也伴随着更高的风险和责任。当前的人工智能研究缺乏对如何管理人工智能系统的长尾风险(包括推测性的长期风险)的系统讨论。考虑到人工智能的潜在好处,有人担心构建更加智能和强大的人工智能系统最终可能会导致比我们更强大的系统;有人说这就像玩火,并推测这可能会带来生存风险(x-风险)。为了提高准确性并为这些讨论提供依据,我们提供了如何分析人工智能 x-风险的指南,该指南由三部分组成:首先,我们回顾如何使当今的系统更安全,借鉴危害分析和系统安全中经过时间考验的概念,这些概念旨在引导大型流程朝着更安全的方向发展。接下来,我们讨论对未来系统安全产生长期影响的策略。最后,我们讨论通过改善安全性和一般能力之间的平衡来使人工智能系统更安全的关键概念。我们希望本文档以及所提出的概念和工具能够成为理解如何分析 AI x-risk 的有用指南。
摘要。大规模基因组或转录组数据上的机器学习对于许多新型健康应用都很重要。例如,根据单个生物标志物,细胞和分子状态等,塞维医学对患者的医疗治疗量身定制医疗治疗。但是,所需的数据是敏感的,大量的,异质的,通常在没有专用的机器学习硬件的位置分开。由于隐私和监管原因,在受信任的第三方中汇总所有数据也是问题。联合学习是解决这一难题的有前途的解决方案,因为它可以在不交换原始数据的情况下进行分散的,协作的机器学习。在本文中,我们对联合学习框架的张力和花朵进行了比较实验。我们的测试案例是疾病预后和细胞类型分类模型的培训。我们考虑了数据异质性和架构异质性。我们衡量模型质量,对增强隐私噪声的鲁棒性,计算性和资源开销。每个联合学习框架的工作都有不同的优势。但是,我们的实验证实,这两个框架都可以在转录组数据上很容易地构建模型,并且将个人原始数据传输到具有丰富的综合资源的第三方。
人工智能 (AI) 的最新进展激发了人们对 AI 刺激经济增长潜力的兴奋,学者们认为 AI 有可能成为我们这个时代最重要的“通用技术”(Brynjolfsson & McAfee,2017 年)。然而,人们担心,AI 的进步也可能对劳动力市场、企业和行业产生重大影响,因为它会取代工人、改变职业管辖权、改变战略并影响绩效。几十年来,学者们一直在思考信息技术的快速发展是否以及如何改变竞争和战略的性质(Bennett & Hall,2020 年;Bettis & Hitt,1995 年;Tippins & Sohi,2003 年)。近年来,越来越多的研究人员开始研究人工智能如何影响企业设计、战略、组织学习和管理(例如,Balasubramanian、Xu 和 Ye,2020 年;Bughin、Kretschmer 和 van Zeebroeck,2019 年;Iansiti 和 Lakhani,2020 年;Jia、Luo 和 Fang,2020a、2020b;Khashabi 和 Kretschmer,2019 年;Raj 和 Seamans,2019 年;Wuebker、Saouma 和 McGahan,2018 年)。然而,尽管学术文献和公共媒体对人工智能对职业、企业和市场的影响非常感兴趣,但系统的证据收集却很少。缺乏证据的部分原因在于人工智能的快速发展是一种新兴现象,衡量其影响的标准尚未确定,因此也不适合发展(McElheran,2018;Raj & Seamans,2018)。
我们使用广义非语境性不等式和独立于基的相干性见证来分析干涉现象中的非经典资源。我们使用最近提出的不等式,在同一框架内见证这两种资源。鉴于以前的语境优势结果,我们还提出了一种系统的方法,应用这些工具来描述量子信息协议中相干性和语境性所提供的优势。我们将这种方法实例化为量子询问任务,该任务由典型的炸弹测试干涉实验引入,展示了此类任务的语境量子优势。量子叠加是量子理论最著名的非经典特征。它以许多有趣的解释困扰了一代又一代的物理学家,并奠定了量子计算[ 1 , 2 , 3 ]、大系统干涉[ 4 ]、量子源理论[ 5 ]、量子互补性[ 6 , 7 , 8 , 9 , 10 ]和量子基础[ 11 , 12 ]等领域重大发现的基础。相干性作为量子信息的一种资源,为量子叠加理论和量子干涉实验提供了一个现代视角[ 13 , 14 ]。它提供了量化干涉仪中量子态相干性的方法,同时优雅地表征了非经典现象,具有比可见性更好的工具[15,16,17],不仅形式上扎根于丰富的理论结果[18,19],而且可以通过实验获得[20],而且与量子场论有着深刻的联系。
摘要:伊万·伊里奇(Ivan Illich)在其著作《欢乐的工具》(1975 年)中呼吁人类在技术发展中自我限制。他的目的既不是环境保护,也不是防止技术发展不可预见的副作用,而是让用户理解技术的工作原理。因为如果工具的制造或维修需要公众无法获得的专业知识,那么这必然会导致社会权力失衡。同样,伯纳德·斯蒂格勒(Bernard Stiegler)认为将技术知识委托给技术系统是一种无产阶级化,最终可能导致生活情趣的丧失。虽然没有完全拒绝劳动分工、自动化或专业知识,但共享实践可以应对这样的诊断:GNU/Linux 或开放硬件等免费软件在很大程度上成功地将高级计算无疑需要的专业知识与有问题的权力效应区分开来。从这个角度来看,专有算法是有问题的,因为它们缺乏透明度,阻碍了欢乐。数据聚合和提取的实践也是如此,它们不断增加平台提供商和用户之间的信息差距。所谓的“自我学习”,即递归适应算法,带来了一个更根本的问题:尚不清楚“人工智能”产生的知识和指令如何以及在多大程度上可以被人类洞察力追踪和重建。因此,我们面临着一种可能无法恢复的无产阶级化和非欢乐的局面,这再次暴露了伊里奇对技术自我限制的考虑的紧迫性。