Loading...
机构名称:
¥ 1.0

与SLMS相比,LLMS与人类偏好相比表现出Supe-050 ​​Rior对齐(OpenAI,051 2024; Georgiev et al。,2024)。因此,ex-052 iSting Works llms作为教师提炼053偏好知识(Bai等人,054 2022; Cui等。,2023; Tunstall等。,2024; Wang 055等。,2024; Yuan等。,2024)。所有这些作品056模型在LLM中的模型偏好知识比较了成对响应。例如,Bai 058等。(2022)使用对059培训奖励模型的教师注释的响应,该奖励模型通过加强学习指导学生060。同样,Tunstall 061等。(2024)采用教师模型以偏爱-062 ence注释,但使用蒸馏的直接优先优化 - 064(Rafailov等人)直接优化了学生063模型(Rafailov等人。,2023)在注释数据集上。065然而,这些066“教师通知者”提供的监督信号采用订购067

小语言模型的偏好一致蒸馏

小语言模型的偏好一致蒸馏PDF文件第1页

小语言模型的偏好一致蒸馏PDF文件第2页

小语言模型的偏好一致蒸馏PDF文件第3页

小语言模型的偏好一致蒸馏PDF文件第4页

小语言模型的偏好一致蒸馏PDF文件第5页

相关文件推荐

2023 年
¥1.0
2022 年
¥1.0
2024 年
¥1.0
2021 年
¥1.0
2020 年
¥21.0
2024 年
¥1.0