[LG]《AskingClarifyingQuestionsforPre

爱生活爱珂珂 2025-10-16 09:11:26

[LG]《Asking Clarifying Questions for Preference Elicitation With Large Language Models》A Montazeralghaem, G Tennenholtz, C Boutilier, O Meshi [Google] (2025)

用扩散模型思路训练大语言模型(LLM)提问,精准挖掘用户偏好

推荐系统中,如何在缺少用户历史数据时准确获取用户偏好,是个难题。最新研究《Asking Clarifying Questions for Preference Elicitation With Large Language Models》提出了创新方法,借鉴图像扩散模型思路,训练LLM通过「递进式漏斗提问」逐步还原完整用户画像。

核心思路:

1️⃣ 将用户文本画像转为结构化JSON数据,按从具体到抽象排序。

2️⃣ 正向过程:逐步删除画像信息,并为每条被删信息生成对应的澄清问题,形成训练数据。

3️⃣ 逆向过程:训练LLM根据局部画像生成有效的澄清问题,逐步“去噪”恢复完整用户画像。

4️⃣ 训练中还配备了用户模拟器(同为LLM),用以自动回答问题,模拟真实对话环境。

亮点与贡献:

✔️ 生成的澄清问题遵循漏斗顺序,先问广泛概念(如“偏好哪类电影?”),后逐渐细化(如“喜欢导演X的作品吗?”),对话更自然高效。

✔️ 实验采用Movielens电影数据集,基于Gemma和Gemini大语言模型,结果显示该方法显著提升了提问的针对性和用户画像还原度(ROUGE、BLEU指标均大幅提升)。

✔️ 细节优化:在用户画像中同时加入提问和回答,避免重复提问,提高问答质量。

✔️ 该框架可拓展至多领域、隐私受限、无历史数据等多种现实推荐场景。

研究意义:

✅ 通过引入扩散模型的“正向破坏—逆向还原”理念,开辟了LLM主动式偏好采集的新路径。

✅ 促进推荐系统与对话系统的深度融合,提升个性化推荐的精准度与用户体验。

✅ 为未来自适应学习和多轮交互的智能系统提供理论和实践基础。

全文链接:arxiv.org/abs/2510.12015

这项研究为如何让大语言模型更聪明地提问、理解用户需求带来了新思路,值得推荐系统和对话AI领域的同学深入关注!

大语言模型 扩散模型 推荐系统 用户偏好 对话系统 AI研究

0 阅读:0
爱生活爱珂珂

爱生活爱珂珂

感谢大家的关注