Interleaving Retrieval with Chain-of-Thought Reasoning for Knowledge-Intensive Multi-Step Questions

发布时间 2023-07-20 21:43:09作者: 馒头and花卷

Trivedi H., Balasubramanian N., Khot T., Sabharwal A. Interleaving retrieval with chain-of-thought reasoning for knowledge-intensive multi-step questions. ACL, 2023.

CoT (Chain of Thought) + 检索.

IRCoT

  • 对于如上的问题, "In what country was Lost Gravity manufactured?" 单独问 LLM 或者单独在维基百科上搜索, 都很难得到答案. 但是通过如下步骤或许可以得到最终的答案:

    1. 首先将该问题在维基百科上搜索, 得到关于 《Lost Gravity》 的一些信息.
    2. LLM 能够从该信息中抓取到 《Lost Gravity》 的制作公司为 Mack Rides.
    3. 接着在维基百科中搜索 "The Lost Gradvity was manufactured by Mack Rides", 我们会得到一些关于 Mack Rides 的信息.
    4. 基于该信息我们能够得到 (通过 LLM 抓取) "Mack Rides" 是一家德国公司的信息.
    5. 最终我们能够得到答案为: Germany.
  • 上面的例子就是告诉我们, 很多问题是需要检索 + 提取信息交替进行最后才能得到答案的.

  • 所以 IRCoT 的步骤就是迭代如下的过程:
    1. 已经有了外部的信息和思维链如下:

    2. 将该 prompt 喂入 LLM 得到输出, 并保留第一行, 若输出中带有 "answer is" 则停止 (或者迭代次数达到上限的时候也停止).

    3. 将这第一行通过检索器检索出一些额外的信息, 再次进入 1.

代码

[official]