∗第一个版本:2024年1月。由OpenAI的研究人员访问计划支持的研究。FISH得到了NSF研究生研究奖学金和Kempner Institute研究生奖学金的支持。Gonczarowski的研究得到了哈佛大学Fas Dean的有前途学术竞争基金的支持,并得到了美国倡议中哈佛大学FAS不平等的竞争基金。Shorrer的研究得到了美国 - 以色列双原则科学基金会(BSF Grant 2022417)的资助。我们感谢NBER市场设计新方向2023会议的组织者创造了一个启发这项研究的环境。我们感谢Ventz Petkov的宝贵技术援助,并感谢Susan Athey,Ben Enke,Edward Glaeser,Marc Henry,David Laibson,Rohit Lamba,Shengwu Li,Ariel Pakes和David Parkes的洞察力和讨论。我们感谢计量学会跨学科前沿(ESIF)经济学和AI+ML会议的参与者,EC 2024关于基金会模型和游戏理论以及在线广告的边界的研讨会:Autobidding,Genai,Genai,Beyond,以及哈佛大学的研讨会参与者的评论。†哈佛大学工程与应用科学学院 - 电子邮件:sfish@g.harvard.edu‡哈佛大学经济学系和计算机科学系 - 电子邮件:yannai@gonch.name
1个地球科学研究所,斯洛伐克科学学院,84005布拉迪斯拉瓦,斯洛伐克2号,伊利诺伊州芝加哥大学芝加哥大学地球物理科学系,伊利诺伊州60637,美国3号,美国内布拉斯加州大学医学中心,内布拉斯加州奥马哈州内布拉斯加州大学68198-438-3375,USYASIGHITIAS BIOSTATISTION,U.S.A. 3. U.S.A.佐治亚州萨凡纳,佐治亚州佐治亚州31411,美国5地球和可持续性学院,亚利桑那北部大学,弗拉格斯塔夫,亚利桑那州弗拉格斯塔夫,亚利桑那州86011 86011,美国6古生物学系,国家自然历史博物馆,史密森尼学会国家博物馆,华盛顿州华盛顿特区,20013年,美国俄亥俄州科学院,俄亥俄州7号,新星,新北,43.55。液压实验室,美国陆军工程师研发中心。Vicksburg,密西西比州39180-6199,美国9号海洋生物学实验室,洛杉矶县县卫生区,加利福尼亚州卡森,加利福尼亚州90745,U.S.A.Vicksburg,密西西比州39180-6199,美国9号海洋生物学实验室,洛杉矶县县卫生区,加利福尼亚州卡森,加利福尼亚州90745,U.S.A.
大型语言模型(LLMS)是强大的指导关注者。但是,许多开放式生成任务具有较大的解决方案空间,需要缩小以适合用户需求。llms朝着这种需求方向而言,对于与用户期望和目标保持一致的安全LLM系统至关重要。尽管LLM指导跟踪的持续改进,但此类增益可能不一定转化为可管道性。此断开连接激发了一个用于测量可引导性的原始框架。因此,我们提出了一个面向目标的,定量的可管道定义。我们的定义为em-pirical的引导探针的设计提供了信息,我们利用文本重写任务来衡量LLMS的转移能力。我们证明了最近的LLM是不可察的。我们将这种缺乏可行性归因于副作用:请求目标与无需LLM运动之间的相关性。因此,尽管LLM指导的进步前进,但仍有很大的空间可改善LLM的可识别性。
在最近的研究中,研究人员使用了大型语言模型(LLM)来探索大脑中的语义表示。但是,他们通常分别评估了不同级别的语义内容,例如语音,对象和故事。在这项研究中,我们使用功能磁共振成像(fMRI)记录了大脑活动,而参与者则观看了8.3个小时的戏剧和电影。我们在多个语义级别注释了这些刺激,这使我们能够为此内容提取LLM的潜在表示。我们的发现是LLMS比传统语言模型更准确地预测人脑活动的结果,尤其是对于复杂的背景故事。此外,我们确定了与不同语义表示相关的不同大脑区域,包括多模式视觉 - 语义表示,这突出了同时建模多级和多态语义表示的重要性。我们将使我们的fMRI数据集公开使用,以促进对LLM与人脑功能保持一致的进一步研究。请在https://sites.google上查看我们的网页。com/view/llm and-brain/。
知识是智力的基石和文明的延续,为我们提供了基本的原则和引入复杂问题和新兴挑战的指导(Davis等人。,1993;崔,2022)。在整个进化的广泛历史中,我们通过利用获得的知识和探索未知知识的边界来奉献更高级的智力(McGraw and Harbison-Briggs,1990; Han等;,2021)。我们知道,大型语言模型(LLM)以封装广泛的参数而闻名(Roberts等人,2020年; Sung等。,2021; Cao等。,2021a; Zhong等。,2021; Kandal等。,2023; Heinzerling和Inui,2020年; Petroni等。,2019年; Qiao等。,2023; Kritharoula等。,2023;他等人。,2024a),在应用中取得了前所未有的进展。但是,LLM中的知识机制用于学习,存储,利用和进化仍然是神秘的(Phillips
众所周知,抽象的癌症治疗会引入心脏毒性,对结局产生负面影响和生存。识别患有心力衰竭风险(HF)的癌症患者对于改善癌症治疗结果和安全性至关重要。这项研究检查了机器学习(ML)模型,以使用电子健康记录(EHR)(包括传统的ML,时间感知的长期短期记忆(T-LSTM)(T-LSTM)和大型语言模型(LLMS),使用从结构性医疗代码中得出的新型叙事特征。我们确定了来自佛罗里达大学健康的12,806名患者,被诊断出患有肺部,乳腺癌和结直肠癌,其中1,602名患者在癌症后患有HF。LLM,GatorTron-3.9b,达到了最佳的F1分数,表现优于传统的支持向量机39%,T-LSTM深度学习模型乘以7%,并且广泛使用的变压器模型BERT,5.6%。分析表明,所提出的叙事特征显着提高了特征密度和提高的性能。引言癌症和心血管疾病是美国(美国)的前2个死亡原因,它们通常在多个层次上共存并相交。1-3癌症是全球重要的公共卫生问题,也是美国第二常见的死亡原因。在2023年,美国有1,958,310例新的癌症病例,导致609,820例死亡。4肺癌和支气管癌是最致命的癌症形式,估计导致127,070例死亡,其次是结直肠癌,估计有52,550例死亡。Yang等。 angraal等。 Yu等。Yang等。angraal等。Yu等。Yu等。乳腺癌是最常见的癌症诊断,估计有30万人。已知许多癌症治疗方式,例如化学疗法和放射疗法,都引入心脏毒性并可能导致心脏故障,这是癌症患者疾病和死亡的重要原因。5例癌症患者经常面临双重挑战,即不仅要管理其原发性癌症,而且还涉及癌症治疗的潜在心脏毒性作用。6即使不是直接心脏毒性,癌症治疗也会导致代谢,能量平衡,贫血和其他生理压力源的变化,这些胁迫可能会加速或发现先前存在的患者心脏病的倾向。为了解决这个问题,心脏肿瘤学是结合心脏病学和肿瘤学知识以识别,观察和治疗癌症患者心血管疾病的越来越感兴趣的领域。HF的发生率显着有限,对癌症的治疗方案显着影响,并对生活质量产生负面影响。使用电子健康记录(EHR)来识别有HF风险的癌症患者,以帮助决策并提高癌症治疗的安全性。通常将HF的预测作为二进制分类任务进行处理,该任务是使用机器学习模型来对其进行访问的,以将给定的个体分类为正(以HF风险)或负面(无HF风险)类别。先前的研究探索了使用EHR来使用传统的机器学习模型和基于神经网络的深度学习模型来预测HF的风险。混合神经网络11-13,包括混合动力7系统地探索了传统的机器学习模型,包括逻辑回归(LR),随机森林(RF),支持向量机(SVMS)和梯度增强(GB),具有单速和术语频率内文档频率(TF-IDF)特征编码策略。8开发了使用LR,RF,GB和SVM的HF患有HF的门诊病人的死亡率和住院模型。9探索了英国生物库的基因组学数据以进行心力衰竭预测。在这些先前的研究中,来自EHR的结构化医疗法规通常表示为具有零值和零值的向量,其中零表示患者没有相应的特征,而患者表示患者具有相应的特征,称为单次编码。然而,在单次编码期间,EHR的事实结构被简化为向量表示,而无需考虑时间关系。为了捕获事件时间结构,研究人员探索了深度学习方法,例如使用长期短期记忆(LSTM)10实施的复发性神经网络。
在许多科学领域中,大型语言模式(LLMS)彻底改变了文本和其他数据模式(例如分子和蛋白质)的方式,从而在各种应用中实现了各种表现,并增强了科学发现过程。尽管如此,先前对科学LLM的调查通常集中在一个或两个领域或单个模态上。在本文中,我们旨在通过揭示科学LLM之间关于其体系结构和预训练技术的科学LLM之间的跨场和跨模式连接,从而提供更全面的看法。为此,我们对260个科学LLM进行了调查,讨论了它们的共同点和差异,并总结了每个字段和模态的预训练数据集和评估任务。此外,我们研究了如何部署LLM以使科学剖面受益。与此调查相关的资源可在https://github.com/yuzhimanhua/很棒的scientific-language-models上提供。
探索大语模型(LLM)在解决难题中的能力(LLM)宣传对AI中潜在和挑战的洞察力,这标志着将其适用于复杂的重新执行任务迈出的重要一步。这项调查利用了独特的分类法 - 将难题分为基于规则和规则的类别 - 通过各种方法进行了严格的评估LLM,包括提示技术,神经符号符号和微调。通过对相关数据集和基准测试的批判性审查,我们评估了LLMS的性能,并在复杂的难题场景中确定了重大挑战。我们的发现突出了LLM功能和类似人类的推理之间的差异,尤其是在需要先进逻辑推断的推理的情况下。该调查强调了新型策略和更丰富的数据集的必要性,以提高LLMS的拼图解决能力,并有助于AI的逻辑推理和解决问题的问题。
摘要 - 具有广泛的预训练的知识和高级一般能力,大型语言模型(LLMS)作为一种有希望的途径,以增加多任务,样本效率和高级任务计划等诸如多任务学习,样本效率和高级任务计划之类的途径。在这项调查中,我们对LLM增强RL中现有文献进行了全面审查,并总结了其特征与常规RL方法相比,旨在阐明研究范围和未来研究的方向。利用经典的代理 - 环境相互作用范式,我们提出了一种结构化的分类法,以系统地将LLMS在RL中的功能分类,包括四个角色:信息处理器,奖励设计师,决策者,决策者和生成器。对于每个角色,我们总结了方法论,分析缓解的特定RL挑战,并提供对未来方向的见解。最后,讨论了对LLM增强RL的每个角色,潜在应用,潜在的机会和挑战的比较分析。通过提出这种分类法,我们旨在为研究人员提供一个有效利用RL领域中LLM的框架,从而在复杂应用中加速RL应用程序,例如机器人技术,自动驾驶和能源系统。