IBM Watson Assistant Google DialogFlow Microsoft Bot Framework 和 Power Virtual Agents FaceBook Wit.AI
摘要 研究:AI 社会认知评估与建模。评估 LLM 中的心智理论及其在心理学中的应用 NLP:LLM IFT、表征学习(对比和三重态损失)、语义聚类、总结 DL:Transformers、MoE、EncDec、RNNs、DPO、LoRA 工具:Python、Pytorch、Deepspeed、AWS Sagemaker、hydra、SQL 管理:建立 ML 团队、职能、策略和 OKR、招聘和指导科学家和实习生以及建立数据和注释合作伙伴关系。
Atlassian是Jira,Trello和Confluence背后的公司,在其产品中收到了大量的客户反馈。最初,他们依靠手动分析和基于NLP的工具来分类和解释这些数据。但是,随着反馈量的增长,NLP的局限性变成了瓶颈。
摘要 - 自主驾驶有可能为更有效的未来移动性奠定基础,要求研究领域通过安全,可靠和透明的驾驶来建立信任。大语言模型(LLM)具有推理能力和自然语言的理解,具有作为可以与人类互动和为人类驾驶员设计的环境互动的自我运动计划的普遍决策者的潜力。尽管这条研究途径很有希望,但当前的自动驾驶方法通过结合3D空间接地以及LLMS的发展和语言能力来挑战。我们介绍了BEV-驱动程序,这是一种基于LLM的模型,用于Carla中的端到端闭环驾驶,它利用潜在的BEV功能作为感知输入。bevdriver包括一个BEV编码器,以有效地处理多视图图像和3D LiDAR点云。在一个共同的潜在空间中,BEV特征通过Q-前者传播,以与自然语言指示保持一致,并传递给LLM,该LLM预测和计划在考虑导航说明和关键场景的同时,可以精确的未来轨迹。在Langauto基准测试中,与SOTA方法相比,我们的模型在驾驶得分上的性能高达18.9%。
摘要。本论文研究了金融风险管理中大型语言模型(LLM)和检索增强发电机(RAG)的实施和影响。通过定性搜索方法和金融机构中的迭代原型开发,本文探讨了这些技术如何改善风险管理专业人员的数据可访问性和决策过程。这些发现揭示了这些技术在金融环境中实现这些技术的潜力和挑战。尽管风险经理对技术表现出极大的热情和信任,但成功实施需要在数据归一化,语义建模和查询生成方面进行大量的手动工程工作。关键挑战包括处理模棱两可的自然语言查询并保持财务计算中的准确性。表明,尽管LLMS和RAG可以提高数据可及性,但它们的有效部署需要仔细注意特定于领域的需求和人为因素。这项研究通过洞悉实施挑战,用户接受和系统要求,为AI在金融服务中的实践应用方面的知识越来越多。这些发现对考虑类似的实施和提示未来研究的指示的金融机构具有重要意义,以提高AI辅助财务风险管理工具的可靠性和效率。
2国家标准技术研究所,人工智能风险管理框架(AI RMF 1.0),2023年6月,https://doi.org/10.6028/nist.ai.100-1。 3 United States, Executive Office of the President [Joseph Biden], Executive Order on the Safe, Secure, and Trustworthy Development and Use of Artificial Intelligence , October 30, 2023, https://www.whitehouse.gov/briefing-room/presidential-actions/2023/10/30/executive-order-on-the-safe-安全和信任的发展和人工智能使用。 4加州隐私保护局,风险评估和自动决策技术法规(2024年3月),https://cppa.ca.gov/meetings/materials/20240308_item4_item4_draft_risk.pdf;科罗拉多州SB 24-205,人工智能的消费者保护(2024),https://leg.colorado.gov/bills/sb24-205。2国家标准技术研究所,人工智能风险管理框架(AI RMF 1.0),2023年6月,https://doi.org/10.6028/nist.ai.100-1。3 United States, Executive Office of the President [Joseph Biden], Executive Order on the Safe, Secure, and Trustworthy Development and Use of Artificial Intelligence , October 30, 2023, https://www.whitehouse.gov/briefing-room/presidential-actions/2023/10/30/executive-order-on-the-safe-安全和信任的发展和人工智能使用。4加州隐私保护局,风险评估和自动决策技术法规(2024年3月),https://cppa.ca.gov/meetings/materials/20240308_item4_item4_draft_risk.pdf;科罗拉多州SB 24-205,人工智能的消费者保护(2024),https://leg.colorado.gov/bills/sb24-205。
规划对于在复杂的决策任务中运作的代理商至关重要,尤其是在人类机器人互动(HRI)方案中,该方案通常需要适应性和导航动态环境的能力。大型语言模型(LLMS)以其出色的自然语言理解能力而闻名,通过处理上下文和语言提示,可以在HRI中提高HRI的计划。但是,它们的有效性受到空间推理中固有的缺点的限制。现有的基于LLM的计划框架通常取决于与经典计划方法结合或难以适应动态环境,从而限制了它们的实际适用性。本文审查了环境反馈机制和迭代计划是否可以增强LLM的计划能力。具体来说,我们提出了“自适应迭代反馈提示”(AIFP)路径计划框架。在AIFP中,LLM生成了部分轨迹,并通过环境反馈评估了潜在的碰撞。基于评估,AIFP升级了轨迹或重新计划。我们的初步结果表明,AIFP将基线的成功率提高了33。3%,并生成有效的,适当的复杂路径,使其成为动态HRI场景的有希望的方法。
项目描述。大型语言模型(LLMS)的令人印象深刻的成功引发了管理多种方式以外的多种方式的需求。结果,已经出现了大型多模型(LMM),例如GPT-4V,GEMINI,DEEPSEEK-VL和QWEN2-VL。这些模型可以理解涉及视觉和语言的说明并采取行动,即,它们使用户能够上传图像并与LLM讨论。原则上,多模式变压器(例如剪辑和碎片)旨在处理文本和图像输入。这些模型在关节空间中处理视觉和文本数据。这使他们可以理解文本并将其连接到视觉表示。一般框架如下:i)图像特征首先是通过视觉变压器(例如VIT)提取的,该vit将视觉数据转换为嵌入,ii)文本输入由语言模型处理,该模型将文本模型转换为自己的嵌入,然后iiii iii)通过共享的变压器结构或通过交叉说明机构将两个嵌入式处理在一起。但是,有一些架构细节将这些模型彼此区分。