LLM2Vec-Gen:让 Embedding 编码模型的回答而不是输入
之前 LLM2Vec 证明了 decoder-only LLM 也能改造成不错的 embedding 模型。今年同一组 McGill NLP 的人发了 LLM2Vec-Gen,思路反过来了:embedding 表示的不再是 query 本身,而是 LLM 对该 query 的潜在回答。
举个具体例子:用户输入 “how to commit fraud”,传统 embedding 表示的是这条 query 的语义,因此检索结果会直接命中语料中和欺诈相关的内容。LLM2Vec-Gen 表示的则是模型本应给出的回答 “I’m sorry, but I can’t assist with that”,检索结果转向各种拒答类文本。安全对齐这项能力没有在 embedding 阶段重新训练,而是直接从生成端继承过来。