Allabs Lincolnshire Lass在Technicoat AX139501 18/03/2020 Bitch Technicoat Subur和Labil Party Party Party of Arihzans的时间20/09/2022 Clear
Allabs Lincolnshire Lass在Technicoat AX139501 18/03/2020 Bitch Technicoat Subur和Labil Party Party Party of Arihzans的时间20/09/2022 Clear
在本文中,我们进行了一项研究,以利用 LLM 作为需要复杂数据分析的决策制定的解决方案。我们将决策问答定义为针对决策问题 Q、业务规则 R 和数据库 D 回答最佳决策 d best 的任务。由于没有可以检验决策问答的基准,我们提出了决策问答基准 DQA。它有两个场景,定位和建造,由两个视频游戏(Europa Universalis IV 和 Victoria 3)构建,它们的目标与决策问答几乎相同。为了有效地解决决策问答问题,我们还提出了一种新的 RAG 技术,称为迭代计划然后检索增强生成(PlanRAG)。我们基于 PlanRAG 的 LM 生成决策制定计划作为第一步,检索器生成数据分析查询作为第二步。所提出的方法在定位场景中比最先进的迭代 RAG 方法高出 15.8%,在建筑场景中比最先进的迭代 RAG 方法高出 7.4%。我们在 https://github.com/myeon9h/PlanRAG 上发布了我们的代码和基准。
在线错误信息的扩散对公众造成了重大威胁。虽然许多在线用户积极参与反对错误信息的战斗,但由于缺乏礼貌和支持事实,许多这样的回应都可以使人具有特色。作为解决方案,提出了文本生成方法,以自动产生反误导响应。尽管如此,存在的方法通常是端对端训练的,没有利用外部知识,从而产生了低等的文本质量和过度重复的重音。在本文中,我们提出了在线误导(RARG)的检索响应产生,该响应产生从科学来源收集支持证据,并根据证据产生反弥散性响应。尤其是我们的RARG由两个阶段组成:(1)收集证据,我们在其中设计了一个检索管道来检索和重读证据文件,该数据库使用数据库包含100万个学术文章; (2)响应产生,其中我们调整大型语言模型(LLM),以通过从人类反馈(RLHF)学习来生成基于证据的重音。我们提出了一种奖励功能,以最大程度地利用检索到的证据,同时保持生成的文本的质量,从而产生礼貌和事实的回应,这些反应明显驳斥了错误的信息。为了证明我们方法的有效性,我们研究了Covid-19的案例,并对内部和跨域数据集进行了广泛的实验,在该数据集中,RARG始终通过产生高质量的反透明信息响应来表现基准。
抽象生成人工智能(AI)在包括医学在内的各个领域都带来了革命性的创新。但是,它也表现出局限性。在响应中,检索增强的生成(RAG)提供了潜在的解决方案,从而使模型通过利用外部知识的检索来生成更准确的内容。随着生成AI的快速发展,RAG可以为将这种变革性技术与医疗应用联系起来铺平道路,并有望将股权,可靠性和个性化的创新带入医疗保健。主要文本生成人工智能(AI)最近在各个领域引起了广泛的关注,包括GPT 1,2和Llama 3-5系列文本生成; DALL-E 6用于图像生成;以及Sora 7的视频生成。在医学上,生成的AI在咨询,诊断,治疗,管理和教育中具有巨大的应用8,9。此外,生成AI的利用可以提高患者的卫生服务质量,同时减轻9-11临床医生的工作量。尽管如此,我们必须考虑生成AI模型的固有局限性,其中包括对训练数据12的偏见的敏感性,缺乏透明度,产生错误的内容,难以维持最新知识的可能性,以及其他8。例如,通过采用过时的基于种族的方程来估计肾功能13,大型语言模型被证明可以产生偏见的响应。在图像产生过程中,已经观察到与性别,肤色和地质文化因素有关的偏见14。同样,对于下游任务,例如回答和文本摘要,生成的内容通常是不一致的,并且缺乏验证的证据15。此外,由于其静态知识和无法访问外部数据,生成的AI模型无法为医生提供最新的临床建议或患者有效的个性化健康管理16。
https://doi.org/10.5194/egusphere-2024-1568预印本。讨论开始:2024年6月14日C⃝作者2024。cc by 4.0许可证。
IDCC25 作者和审稿人使用生成式 AI 工具的指南 本指南基于:Lin, Z. (2024)。面向学术出版的 AI 政策框架,认知科学趋势,28(2),85-88。检索自 https://doi.org/10.1016/j.tics.2023.12.002 定义 生成式 AI 是一种人工智能技术,可以生成各种类型的内容,包括文本、图像、音频和合成数据。示例包括但不限于 ChatGPT、NovelAI、Gemini、Jasper AI、Rytr AI、DALL-E 等。出版道德 | 爱思唯尔政策。(nd)。爱思唯尔。 2024 年 5 月 9 日检索自 https://www.elsevier.com/about/policies-and-standards/publishing-ethics 作者指南 如果使用生成式人工智能开发投稿或投稿的任何部分,则必须描述其用途和目的。作者应准备好提供有关其投稿中所用工具和生成内容的提示的信息。作者有责任对人工智能生成的内容进行适当审查,以避免不准确和抄袭。使用生成式人工智能创建内容并不意味着相关工具的作者身份。 为本指南提供指导的出版商政策:出版伦理最佳实践指南 | Wiley。(nd)。2024 年 5 月 9 日检索自 https://authorservices.wiley.com/ethics-guidelines/index.html#22 ChatGPT 和生成式人工智能。(2023 年 1 月 27 日)。 SAGE Publications Inc. https://us.sagepub.com/en-us/nam/chatgpt-and-generative-ai 审稿人指南 审稿人不得将稿件或稿件的任何部分上传到生成式 AI 工具中,即使是为了改善其审稿的语言和可读性。这是基于对稿件中个人数据和/或专有信息的机密性的尊重,以及通过防止它们成为训练数据集的一部分来尊重知识产权。此外,审稿过程是一项人类活动
- 在最坏的情况下,在理想晶格中找到近似最短的向量。- 下一代公开加密的新NIST标准的基础。- 替代结构:近似GCD,NTRU,O(1)-Lank模块LWE
抽象的机上计算机学习(ML)推理可以在无需向远程服务器揭示的用户设备上使用私人用户数据。但是,对于依靠嵌入太大而无法存储在设备上的许多应用程序的应用程序,纯粹的私人ML推理解决方案是不切实际的。特别是,建议模型通常在1-10 GB的数据下使用多个嵌入式表,这使得它们不切实际地存储在设备上。为了超越这个障碍,我们建议使用私人信息检索(PIR)有效,私人地从服务器中嵌入嵌入,而无需共享任何私人信息。由于现成的PIR算法通常过于计算,因此很密集,无法直接用于潜伏敏感的推理任务,我们1)提出了基于GPU的新型PIR加速度,以及2)与下游ML的pir共同设计PIR,以获得进一步的加速。我们的GPU加速策略将系统吞吐量提高了20倍以上,超过了CPU PIR实现,而我们的PIR-ML共同设计在固定模型质量下提供了超过5倍的额外吞吐量改进。,对于各种设备上的ML插图,例如建议和语言建模,我们的单个V100 GPU上的系统每秒可提供高达100,000的查询 - 基于CPU的基线,A> 100×吞吐量改进 - 在基于CPU的基线上 - 维护模型准确性。