作者 | 酯基
整理 | NewBeeNLP
后台留言『交流』,加入 NewBee算法讨论组
大型语言模型已经在多种任务中大显身手,甚至在数学、逻辑推理等任务上都表现出色。但是由于自回归模型从左到右的输出模式,使得模型只能进行token级别的单向决策。而人类在进行复杂问题的决策时,往往会采用树状的思维方式进行规划。
基于这两点,作者设计了一种简单的 思维树(Tree of Thought, ToT) ,使用LLM模拟人类的决策过程,以解决复杂问题。
- source:Tree of Thoughts: Deliberate Problem Solving with Large Language Models[1]
现有的LM问题解决方式可以分为一下几种:
作者提出现有LM推理过程中解决问题的 两个短板 :
ToT将问题建模为树状 搜索过程,其中每个节点为状态 。ToT包括四个步骤:问题分解、想法生成,状态评价以及搜索算法的选择。
ToT的第一步首先在于将复杂问题拆解成为小问题。由于ToT方法要求模型在每一节点产生多种方案,因此对于问题拆解的要求较高,拆解后的问题不宜过大也不宜过小。
给定一个树节点 ,有两种生成k个方案的方法:
利用LM对现有状态进行评估。与想法生成器相似,作者提出两种评估方式:
针对树形结构,进行广度优先(Breadth-first search, BFS)与深度优先(Depth-first search, DFS)两种搜索算法,如下图所示:
其中,广度优先算法每一步保留b个最优结果,而深度优先算法每步先探索最优路径至得出答案或评价器认为无解。
作者在三种需要计划和搜索的任务上分别进行了实验:二十四点、创造性写作与填词游戏。基础模型均使用GPT-4的对话补全模式。
24点任务设置模型在24点任务上的表现IO、CoT等baseline方法在24点任务中仅能够取得不到10%的准确率,而ToT策略则将准确率提升到了74%.
在创新性写作任务上,ToT方法能够生成具有更好的连贯性的文章,并且更加符合人类偏好。
创新性写作任务示例ToT在创新性写作与填词游戏任务中的表现本文中,作者提出了一种方法,利用LM对复杂任务进行建模,使模型能够能动地进行规划和决策,大大提升了语言模型再复杂推理任务上的表现。作者认为这将是未来发展非常有潜力的方向。
想和你一起学习进步!『NewBeeNLP』目前已经建立了多个不同方向交流群(机器学习 / 深度学习 / 自然语言处理 / 搜索推荐 / 图网络 / 面试交流 / 等),名额有限,赶紧添加下方微信加入一起讨论交流吧!(注意一定o要备注信息才能通过)
Tree of Thoughts: Deliberate Problem Solving with Large Language Models: https://arxiv.org/abs/2305.10601