Loading...
机构名称:
¥ 1.0

大型语言模型(LLMS)已显示出较小模型中不存在的任务解决能力的提高。利用LLMS的自动化评估(LLM4EVAL)的责任和责任最近引起了人们对穆尔特研究社区的极大关注。例如,已经在自动判断,自然语言生成和检索增强生成系统的背景下研究了LLM4Eval模型。我们认为,信息检索社区可以通过设计,实施,分析和评估LLM的各个方面,并适用于LLM4EVAL任务,从而为这一不断发展的研究领域做出重大贡献。LLM4Eval研讨会的主要目标是将来自行业和学术界的研究人员汇集在一起​​,讨论LLM的各个方面,以评估信息检索,包括自动判断,检索授权的生成管道评估,对人类评估,鲁棒性和LLMS的评估以及对其对现实的影响,以改变人类评估,鲁棒性和LLM的信任性。我们还计划在研讨会之前进行自动判断挑战,在此期间,将要求参与者为给定数据集生成标签,同时最大程度地与人类判断力最大化。研讨会的格式是互动的,包括圆桌会议和主题演讲,并且倾向于避免小型会议的单方面对话。

llm4eval:IR

llm4eval:IRPDF文件第1页

llm4eval:IRPDF文件第2页

llm4eval:IRPDF文件第3页

llm4eval:IRPDF文件第4页

相关文件推荐

2024 年
¥5.0
2022 年
¥37.0
2023 年
¥5.0
2023 年
¥5.0
2021 年
¥3.0
2024 年
¥5.0
2021 年
¥5.0
2021 年
¥4.0