本研究的作者是美国国家科学基金会 (NSF) 资助项目的一部分,该项目将 ELM 定义为封装在聚合物基质内的工程活细胞的复合材料。我们的跨学科研究团队由化学家、生物化学家、生物工程师、机械工程师和建筑师组成,他们为建筑环境开发 ELM,其中包括具有不同功能的工程活细胞的 3D 可打印树脂。我们实验室研究的重点是围绕创新 ELM 的三个主要问题:(1) 在不断变化的水合水平(室外环境)中茁壮成长的能力以及在低水合水平期间生存的能力,(2) 将具有光合作用活性、生产性的细胞整合到高科技建筑膜中,以及 (3) 创建 ELM 簇作为生物生产的弹性生物反应器。
•简化了遵守CDISC标准的过程,从而使合规性的途径更加直接。•增强用户对CDISC标准的理解,支持明智的决策。•整合大量数据以提供全面的见解和建议,增强决策
重要性:大型语言模型(LLMS)可以帮助进行广泛的医疗保健相关活动。当前评估LLM的方法使得难以识别最有影响力的LLM应用领域。目的:总结以5个组成部分对医疗保健中LLM的当前评估:评估数据类型,医疗保健任务,自然语言处理(NLP)/自然语言理解(NLU)任务,评估维度和医学专业。数据来源:对PubMed和Web Science进行了系统搜索,用于在01-01-2022和02-19-2024之间发表的研究。研究选择:评估医疗保健中一个或多个LLM的研究。数据提取和综合:三名独立审核者根据评估中使用的数据,医疗保健任务(what)和NLP/NLU任务(如何检查),评估维度(评估维度)以及所研究的医疗专业的维度分类。
摘要 — 多模态大型语言模型 ((M)LLM) 的出现为人工智能开辟了新途径,尤其在自动驾驶领域,它提供了增强的理解和推理能力。本文介绍了 LimSim++,它是 LimSim 的扩展版本,专为 (M)LLM 在自动驾驶中的应用而设计。考虑到现有仿真平台的局限性,LimSim++ 满足了对支持自动驾驶持续学习和提高泛化能力的长期闭环基础设施的需求。该平台提供长时间、多场景模拟,为 (M)LLM 驱动的车辆提供关键信息。用户可以参与即时工程、模型评估和框架增强,使 LimSim++ 成为一个多功能的研究和实践工具。本文还介绍了一个基线 (M)LLM 驱动的框架,该框架通过在不同场景中的定量实验进行了系统验证。LimSim++ 的开源资源位于:https://pjlab-adg.github.io/limsim-plus/ 。索引词——自动驾驶汽车、闭环仿真、大型语言模型、知识驱动代理
问:什么是Kerberoasting攻击? A:对手可能会滥用有效的Kerberos票务票(TGT)或嗅探网络流量,以获取可能容易受到蛮力攻击的机票授予服务(TGS)票。 服务主名(SPN)用于唯一标识Windows服务的每个实例。 要启用身份验证,Kerberos要求SPN与至少一个服务登录帐户相关联(该帐户(专门负责运行服务的帐户)。具有有效Kerberos票务票证(TGT)的逆境者可能会请求一个或多个Kerberos门票票务服务(TGS)服务票证(TGS)服务票证票来自任何SPN。 这些票证的部分可以用RC4算法进行加密,这意味着与SPN相关的服务帐户的Kerberos 5 TGS-REP ETYPE 23哈希H被用作私钥,因此很容易受到脱机蛮力攻击的攻击,可能会揭示出明文的凭据。问:什么是Kerberoasting攻击?A:对手可能会滥用有效的Kerberos票务票(TGT)或嗅探网络流量,以获取可能容易受到蛮力攻击的机票授予服务(TGS)票。服务主名(SPN)用于唯一标识Windows服务的每个实例。要启用身份验证,Kerberos要求SPN与至少一个服务登录帐户相关联(该帐户(专门负责运行服务的帐户)。具有有效Kerberos票务票证(TGT)的逆境者可能会请求一个或多个Kerberos门票票务服务(TGS)服务票证(TGS)服务票证票来自任何SPN。这些票证的部分可以用RC4算法进行加密,这意味着与SPN相关的服务帐户的Kerberos 5 TGS-REP ETYPE 23哈希H被用作私钥,因此很容易受到脱机蛮力攻击的攻击,可能会揭示出明文的凭据。
摘要 - LARGE语言模型(LLMS)已被用来用于自动化漏洞维修中,但是台上标记表明它们可以始终如一地识别与安全性相关的错误。因此,我们开发了Secllmholmes,这是一个完全拟定的评估框架,该框架迄今为止对LLMS是否可以可靠地识别和有关安全相关的错误进行了最详细的调查。我们构建了一组228个代码方案,并使用我们的框架分析了八个不同调查维度的八个最有能力的LLM。我们的评估表明LLM提供了非确定性的反应,不正确且不忠的推理,并且在现实世界中的表现不佳。最重要的是,我们的发现在最先进的模型(例如“ Palm2”和“ GPT-4”(GPT-4')中揭示了明显的非舒适性:仅通过更改函数或可变名称,或通过在源代码中添加库函数,这些模型分别在26%和17%的情况下可以产生错误的答案。这些发现表明,在将LLMs用作通用安全助理之前,需要进一步的LLM前进。
摘要本文概述了第七次关于需求工程的自然语言处理(NLP4RE)的主题演示文稿(NLP4RE),涉及使用生成大语言模型(LLMS)来解决需求工程(RE)任务。它强调了仅解码器llms的变革性影响,例如GPT等模型,包括RE,包括RE,因为它们具有出色的语言理解和发电能力。讨论集中在仅解码器的LLM如何革新需求启发,规范和验证过程中,可能会重塑RE景观。该论文构成了两个主要部分:第一个探讨了仅解码器模型在自动化任务中的应用,强调了更丰富的输出和新颖的交互范式,而第二部分则强调了精确要求在与这些模型,在与这些模型之间进行有效提示,绘制与这些模型的有效提示,绘制与这些模型的相互作用,绘制Pernepieication技术和提示技术的促进策略的关键作用。
大型语言模型(LLM)表现出了信息检索的熟练程度,而它们容易产生与现实冲突的不正确反应,这种现象被称为固有幻觉。关键挑战在于经过大量数据训练的LLM中不清楚和不可靠的事实分布。vreva-liment方法将事实检测任务视为一个问题 - 回答范式,在其中询问了LLMS有关FACTUAL知识并检查正确性的问题。但是,研究主要侧重于仅从几个特定领域(例如电影和运动)中得出测试用例,从而限制了对知识缺失的全面观察和对意外幻觉的分析。为了打扮这个问题,我们提出了构造,这是一个自适应框架,用于检测LLM的未知事实,致力于挖掘缺失知识的本体论级骨架。特定说明,我们认为LLM可以在缺失的事实中公开基于本体的相似性,并将五个代表知识图(kgs)作为基准。我们进一步设计了一种复杂的本体驱动的强化学习(ORL)机制,以自动与特定实体和关系产生易错的测试用例。Orl Mechamenism奖励KGS朝着可行的方向导航,以揭示事实错误。此外,经验努力表明,无论是否包括这些知识,主导的LLM都倾向于回答是的,而不是否定。使用32个代表性LLM的5个数据集上的实验结果表明,当前LLMS总体上缺乏事实。为了减轻LLM的过度自信,我们利用了无幻觉检测(HFD)策略来解决基线之间的不公平比较,从而提高了结果的稳健性。值得注意的是,CHATGPT在DBPEDIA上的事实错误率分别为51.6%,Yago的错误率分别为64.7%。另外,ORL机制显示出令人鼓舞的误差预测分数,大多数LLM的F1分数范围从70%到90%。与详尽的测试相比,ORL的平均召回率为80%,同时将评估时间降低35.29%至63.12%。
大型语言模型 (LLM) 可用作生物和化学信息库,以生成药理学先导化合物。然而,要使 LLM 专注于特定的药物靶点,通常需要使用逐步更精细的提示进行实验。因此,结果不仅取决于对靶点的了解,还取决于对提示工程的了解。在本文中,我们将提示分为可以以标准逻辑形式编写的领域约束和简单的基于文本的查询。我们研究是否可以引导 LLM,不是通过手动优化提示,而是通过自动优化逻辑组件,保持查询不变。我们描述了一个迭代过程 LMLF(“具有逻辑反馈的语言模型”),其中使用逻辑泛化概念逐步优化约束。在任何迭代中,都会根据约束验证新生成的实例,为下一次迭代对约束的优化提供“逻辑反馈”。我们使用两个众所周知的靶点(Janus 激酶 2 和多巴胺受体 D2 的抑制)和两个不同的 LLM(GPT-3 和 PaLM)来评估 LMLF。我们表明,从相同的逻辑约束和查询文本开始,LMLF 可以引导两个 LLM 生成潜在线索。我们发现:(a) LMLF 生成的分子的结合亲和力比现有基线的结合亲和力更偏向更高的结合亲和力;(b) LMLF 生成的分子比没有逻辑反馈的分子更偏向更高的结合亲和力;(c) 计算化学家的评估表明 LMLF 生成的化合物可能是新型抑制剂。这些发现表明,具有逻辑反馈的 LLM 可能提供一种生成新线索的机制,而无需领域专家获得复杂的快速工程技能。