大型语言模型(LLMS)是强大的指导关注者。但是,许多开放式生成任务具有较大的解决方案空间,需要缩小以适合用户需求。llms朝着这种需求方向而言,对于与用户期望和目标保持一致的安全LLM系统至关重要。尽管LLM指导跟踪的持续改进,但此类增益可能不一定转化为可管道性。此断开连接激发了一个用于测量可引导性的原始框架。因此,我们提出了一个面向目标的,定量的可管道定义。我们的定义为em-pirical的引导探针的设计提供了信息,我们利用文本重写任务来衡量LLMS的转移能力。我们证明了最近的LLM是不可察的。我们将这种缺乏可行性归因于副作用:请求目标与无需LLM运动之间的相关性。因此,尽管LLM指导的进步前进,但仍有很大的空间可改善LLM的可识别性。
主要关键词