尽管人工智能 (AI) 的概念最初是在 60 多年前提出的,但基于 AI 的技术和应用的快速发展发生在 2010 年代图形处理单元改进之后。1 目前,基于 AI 的算法可以以相同甚至更高的准确性和一致性模拟人类的高阶判断和行为。今天,人工智能以及物联网 (IoT) 和大数据等各种其他技术发展引领了人类的第四次工业革命,并已逐步改变了我们的日常生活。购物、日常生活、制造和政府管理的方式都受到这些技术的影响。许多信息技术专家和研究人员投入了大量的时间和金钱来探索人工智能的新算法和应用,尤其是在医学领域。机器学习 (ML) 是当今最常用的人工智能技术。ML 程序于 1959 年首次推出。2 在 ML 中,数学模型是基于大量训练数据集设计的,这些数据集用作训练算法的输入,以
摘要 基于锌指蛋白、转录激活因子样效应子和 CRISPR 的基因组和表观基因组编辑和成像方法为研究基因组功能提供了强有力的工具。靶向序列设计对于这些实验的成功至关重要。尽管现有的设计软件主要侧重于设计特定元素的靶序列,但我们在此报告了 Jackie 和 Albert 的综合 K 聚体实例枚举器 (JACKIE) 的实现,这是一套用于枚举基因组中所有单拷贝和多拷贝位点的软件,这些位点可以合并用于基因组规模的设计,也可以与其他轨道一起加载到基因组浏览器中,以方便基于 Web 的图形用户界面设计。我们还实现了快速算法来识别靶向序列的序列邻域或脱靶计数,以便可以在合理的时间内在数百万个设计序列中识别出脱靶概率低的设计。我们展示了 JACKIE 设计的 CRISPR 位点簇在基因组成像中的应用。
量子计算机是一种利用量子力学现象进行计算的计算机,不同于当今利用经典物理现象的传统计算机。功能足够强大的大规模量子计算机(不易出错或可纠错)将对目前广泛部署的大多数非对称密码系统构成威胁。这是因为 Shor [1] 引入了多项式时间量子算法来解决循环群中的整数因式分解问题 (IFP) 和离散对数问题 (DLP)。例如,如果量子计算机能够执行 Shor 算法,那么对于足够大的问题实例,它将能够破解基于 IFP 的 RSA [ 2 ] 以及基于 DLP 的 DSA [ 3 ] 和 Diffie-Hellman (DH) [ 4 ]——主要是在有限域的乘法群或椭圆曲线点群(在椭圆曲线密码 (ECC) 的情况下)中。[ 5, 6 ]。上述密码系统目前用于保护互联网上大多数交易的安全。
摘要组织越来越多地实施算法决策AIDS来建议管理决策。我们使用建议(人类和非人类)背后的经理动机,尤其是分享责任与提高决策精度的动机。我们在销售预测环境中与经验丰富的经纪人进行了在线实验,并发现当他们无法(能够)与顾问分担责任时,经理们专注于提高决策准确性(分享责任)。此外,管理人员更希望与非人类顾问分享责任,除非他们认为算法是社会胜任的。因此,结果表明,管理者不仅有动机来最大程度地减少预测错误,而在接受建议时减少个人责任。,我们通过在接受(非)人类建议时强调经理的机会主义动机来为文学做出贡献。我们的发现也对实践具有重要意义。具体来说,公司在实施算法的决策辅助工具时应意识到经理的机会性建议动机。
投射气候变化是一个概括问题:我们使用过去,现在和将来的气候中的物理模型推断了最近的过去。当前的气候模型需要在小于模型网格大小的尺度上发生的过程,这是模型投影不确定性的主要来源。最近的机器学习(ML)算法有望改善这种过程表示形式,但往往会推断出不受培训的气候制度。为了获得最佳的物理和统计世界,我们提出了一个框架,称为“气候风险” ML,将气候过程的知识纳入ML算法,并表明它可以在三种不同的大气模型中维持广泛的气候条件和配置范围的高线准确性。我们的结果表明,将物理知识明确地纳入地球系统过程的数据驱动模型中可以提高其在气候制度中的一致性,数据效率和义务。
摘要 — 本文研究了网络系统的实时优化问题,并开发了在线算法,无需明确了解系统模型即可引导系统朝着最佳轨迹运行。该问题被建模为具有时变性能目标和工程约束的动态优化问题。算法的设计利用了在线零阶原始对偶投影梯度法。具体而言,涉及目标函数梯度的原始步骤(因此需要网络系统模型)被其零阶近似所取代,并使用确定性扰动信号进行两个函数评估。评估是使用系统输出的测量值进行的,从而产生反馈互连,其中优化算法充当反馈控制器。本文对这种互连的稳定性和跟踪特性提供了一些见解。最后,本文将该方法应用于电力系统中的实时最优潮流问题,并展示了其在 IEEE 37 节点配电测试馈线上进行参考功率跟踪和电压调节的有效性。
摘要:量子计算可以在未来实现研究和工业领域的各种突破。尽管已经存在的一些量子算法与最著名的经典算法相比具有理论上的加速,但这些算法的实现和执行仍面临一些挑战。例如,输入数据决定了量子算法所需的量子比特和门的数量。算法实现还取决于所使用的软件开发工具包,这限制了可用的量子计算机集。由于当前量子计算机的功能有限,选择合适的量子计算机来执行给定输入的某种实现是一项艰巨的挑战,需要对所实现的量子算法有丰富的数学知识以及对所用软件开发工具包的技术知识。因此,我们提出了一个路线图,用于自动分析和选择某种量子算法的实现以及可以使用给定输入数据执行所选实现的合适量子计算机。
优化的量子控制可以提高量子计量的性能和抗噪能力。然而,当多个控制操作顺序应用时,优化很快就会变得难以处理。在这项工作中,我们提出了有效的张量网络算法来优化通过一长串控制操作增强的量子计量策略。我们的方法涵盖了一种普遍而实用的场景,其中实验者在要估计的通道的 N 个查询之间应用 N - 1 个交错的控制操作,并且不使用或使用有界辅助。根据不同的实验能力,这些控制操作可以是通用量子通道或变分酉门。数值实验表明,我们的算法在优化多达 N = 100 个查询的计量策略方面具有良好的性能。具体来说,我们的算法确定了一种在 N 有限但很大的情况下能够胜过最先进策略的策略。
摘要 - 在过去的十年中,由机器学习(ML)领导的现代人工智能(AI)技术已经获得了前所未有的Momentum。随着“ AI夏季”的浪潮,网络研究社区还接受了AI/ML算法,以解决与网络操作和管理有关的许多问题。但是,与其他域中的对应物相比,由于生产环境的成熟度不足,因此大多数基于ML的解决方案尚未获得大规模部署。本文集中于实际网络中基于ML的解决方案的实际问题。具体来说,我们列举了阻碍实际网络中AI/ML整体的关键因素,并审查现有的解决方案以发现缺失的考虑因素。此外,我们强调了一个有希望的方向,即机器学习操作(MLOP),可以缩小差距。我们认为,本文介绍了有关实施和维护基于ML的解决方案的系统与系统相关的注意事项,并在将来的网络中充分采用了它们。
程序化内容生成 (PCG) 被定义为使用算法自动创建游戏内容。PCG 在游戏行业和学术界都有着悠久的历史。它可以增加玩家参与度并减轻游戏设计师的工作。虽然 PCG 中深度学习方法的最新进展使研究人员和从业者能够创建更复杂的内容,但大型语言模型 (LLM) 的出现才真正打乱了 PCG 发展的轨迹。本调查探讨了用于 PCG 的各种算法之间的差异,包括基于搜索的方法、基于机器学习的方法、其他常用方法(例如噪声函数)以及新兴的 LLM。我们还对组合方法进行了详细讨论。此外,我们根据它们生成的内容类型和各自论文的发表日期对这些方法进行了比较。最后,我们找出了现有学术工作的差距并提出了未来研究的可能方向。