©作者 | LLMLight团队
来源 | 量子位
大模型“上路”,干起了交通信号控制(TSC)的活~
模型名为 LightGPT,以排队及不同区段快要接近信号灯的车辆对路口交通状况分析,进而确定最好的信号灯配置。
该模型由香港科技大学(广州)的研究团队提出,其背后关键是一个名为 LLMLight 的框架。该框架向智能体提供详细的实时交通状况,并结合先验知识构成提示,利用大模型卓越的泛化能力,采用符合人类直觉的推理和决策过程来实现有效的交通控制。
在九个交通流数据集上的实验证明了 LLMLight 框架的有效性、泛化能力和可解释性。具体来说,在真实数据集上,LLMLight 在所有基准测试中始终达到了 SOTA 或与经典强化学习等方法同等的性能水平,并且拥有比后者更为强大的泛化性。
同时,LLMLight 还能在决策时提供背后的分析逻辑,这一可解释性实现了信号灯控制的透明化。TSC 垂类大模型 LightGPT 在此任务上的决策能力显著优于 GPT-4。即便在济南、杭州、纽约等复杂路网下,也展示出突出性能。目前,LLMLight 框架、交通信号灯控制垂类大模型 LightGPT 已开源。
论文地址:https://arxiv.org/pdf/2312.16044.pdf代码地址:
https://github.com/usail-hkust/LLMTSCS主页地址:
https://gungnir2099.github.io/LLMLight-Page/模型权重地址:
https://huggingface.co/USAIL-HKUSTGZ/LLMLight-LightGPTLLM应用于TSC有何挑战?
交通信号控制(TSC)是城市交通管理的重要组成部分,旨在优化道路网络效率并减少拥堵。现有的 TSC 研究主要分为两类:基于交通工程和强化学习的方法。其中,交通工程方法主要侧重于制定有效的启发式算法,根据车道级交通状况属性,动态调整交通信号灯配置。
然而,这些方法的设计严重依赖人力及专业领域知识。之后,多数研究便基于深度强化学习技术来应对这一任务,并在各种交通场景中都表现出了卓越的性能。
然而,基于强化学习的方法也存在明显缺点。首先,由于他们的训练数据仅涵盖有限的交通情况,致使其表现出局限的泛化能力,特别是在转移到更大规模的交通网络或在不常见的路况下(例如,极端高流量的情况)。此外,由于深度神经网络(DNN)的黑盒特性,基于深度强化学习的方法缺乏可解释性,这使得研究人员很难理解其在某交通状况下控制行为的背后逻辑。
而当今,大语言模型凭借其卓越的零样本学习和泛化能力,它以模仿近似人类的推理过程来解决复杂任务,彻底改变了多个领域。例如在交通控制任务上,PromptGAT 使用 LLM 生成人类知识,以此来帮助 DNN 模型理解 TSC 任务中的长尾场景(例如极端天气),旨在弥合现实世界与模拟之间的差距。
不过,虽然现有的研究已经开始探索利用 LLM 作为辅助工具来增强决策,但直接利用 LLM 作为 TSC 智能体进行类人决策的潜力还尚未探寻。具体而言,其有两个重要挑战。
第一个挑战在于如何使 LLM 能够理解实时交通动态并与交通环境做有效交互。LLM 通常在大规模自然语言语料库上进行预训练,但很少包含非文本的流量数据(例如传感器读数和 GPS 轨迹)。尽管它们具有跨多种任务和领域的泛化能力,但实时交通数据和自然语言之间存在固有差距。
如何为信号灯控制任务选择和开发专有垂类 LLM,则是另一个重大挑战。首先,通才大模型往往缺乏特定领域的知识,容易出现专业领域的幻觉问题。尽管 GPT-4 等最先进的 LLM 表现出了优异的泛化能力,但它们的闭源性质和高昂成本并不利于投入到实时 TSC 任务及其后续优化中。因此,训练专门为 TSC 任务量身定制的 LLM 成为了当下更优的选择。
如何将LLM应用于TSC?
为了应对上述挑战,研究人员提出了 LLMLight 框架,其旨在整合大语言模型作为智能体,实现交通信号灯控制。首先该研究将 TSC 视为部分可观察的马尔可夫博弈(Partially Observable Markov Game),其中每个 LLM 智能体管理一个十字路口的交通灯。在每个信号切换时间步上,智能体都会收集目标路口的交通状况,并将其转换为人类可读的文本作为实时观察。
此外,该研究还结合了信息量丰富的任务描述及一条与控制策略有关的常识知识,以帮助 LLM 理解交通管理任务。交通路口的实时状态、任务描述与控制动作空间结合,形成了指导智能体决策的知识提示。
最后,LLM 控制智能体利用思想链 (CoT) 推理来确定下一个时间片的最佳交通信号灯配置。并且该研究还构建了一个交通信号灯控制垂类大模型 LightGPT 来增强 LLMLight 框架。一方面,提出了模仿学习微调(Imitation Fine-tuning),让学生 LLM 学习 GPT-4 产生的高质量决策和推理轨迹。
另一方面,引入了一个由评论家模型指导的策略优化(Critic-gudied Policy Refinement)过程,使其评估和改进 LLM 智能体的控制。优化后的 LightGPT 可以产生比 GPT-4 更具成本效益且更有效的控制策略,并在不同流量场景中展现出卓越的泛化能力。
一起来看具体实现方法。
LLMLight 框架的构建
LLMLight 的工作流包括:智能体的分析推理及决策:LLM 使用构建的提示进行分析推理决策过程,随后做出决策。其流程如下图所示:
提示符模板的简要示意如下图所示:
在智能体的分析推理及决策方面,该研究利用上述提示 LLM 进行零样本(Zero-Shot)推理。其决策过程包含两个关键步骤:分析推理及决策。首先,LLM 会对所给任务及常识知识进行理解,并评估各车道的当前交通状况。随后,LLM 选择合适的信号灯配置,以允许拥堵最严重的车道通行,从而优化交通流量,确保车辆的顺畅通过。
通过这种方式,LLMLight 不仅可以制定有效的控制策略,还可以为每个决策提供其背后推理逻辑。这会极大有助于建立更具解释性和透明性的交通控制系统。
形式化地,研究人员将推理和执行行动表示为 ,LLM 主干的决策过程示例如下图所示:LightGPT模型训练
此外,该研究还提出了一种训练方法,以专门优化用于交通信号灯控制的 LLM——LightGPT。它主要包括三个阶段:评论家模型指导的策略优化:依据评论家模型的反馈进行微调,进一步改善 LLM 的决策过程。
下图展示了其训练流程:
推理轨迹的收集和筛选
利用上述方法构建的提示,该研究首先让 GPT-4 与模拟交通环境进行交互,并收集其推理轨迹。为了确保所收集数据的质量,研究人员筛选出与交通信号灯控制的长期目标最相符轨迹(如最小化未来的排队长度)。这种筛选操作通过与一个预训练的动作-价值网络(Action-Value Network)的对齐来实现。
该研究通过在模拟环境中优化贝尔曼方程(Bellman Equation)来训练此网络:
其中 和 是在信号灯切换时间步 时观察和控制动作, 是奖励折扣因子。 是奖励函数,其提供了在观察 下执行动作 的反馈(如队列长度的负值)。 是动作-价值函数,用于估计执行 后获得的未来累积奖励。随后,训练好的动作-价值函数被用作评论家模型来评估 GPT-4 的决策。研究人员仅保留选择可得到最高未来奖励控制动作的推理轨迹,形式化地:其中 是模拟持续时间, 是智能体提示, 是 GPT-4 的推理轨迹。模仿学习微调
这一阶段,首先研究人员采用了一种模仿学习过程,令学生 LLM 基于 GPT-4 的决策及其推理轨迹进行训练。
研究人员将提 视为微调指令,将包含GPT-4选择的控制动作 的推理轨迹 作为期望得到的回答,并以负对数似然(NLL)作为损失函数:一视频掩码解码器旨在解码提示指定目标的掩码,可以描述为:
其中 为在提示为 的情况下生成字符 的概率。评论家模型指导的策略优化为进一步提高 LLM 控制策略的有效性,研究人员提出了一种策略优化方法,通过调整 LLM 的推理轨迹以得出更合理的控制决策。类似的,该研究继续使用上述预训练的动作-价值函数作为评论家模型,以评估由 LLM 选择的控制动作。随后,利用一种对齐微调算法来调整推理轨迹,最终引导 LLM 采取产生更高未来奖励的决策。具体而言,有 个在提示 下由策略 采样的推理轨迹:评论家模型给出每个轨迹 推导出的控制动作的分数:接着, 的字符平均对数似然值表示由 生成 的概率:该研究采用带有边界约束项(RBC)的排名反馈损失进行优化,以指导LLM得出产生得分更高控制动作的推理轨迹:
其中:
是比 评分更高的且最低的推理轨迹的概率, 是超参数。
该方法效果如何?
实验阶段,该研究使用了五个真实世界流量数据集,其中包括了来自济南和杭州的数据。此外,还利用了两个在纽约更大的路网下采集的数据,以测试不同方法的在大型路网下的可扩展性。
为了测试在长尾情况下的泛化性,研究人员还合成了两个额外的数据集,模拟了极端拥堵的路况。该研究使用了平均旅行时间(ATT),路口平均队列长度(AQL),以及路口平均等待时间(AWT)作为评价指标。
以下是具体的实验结果。
总体性能比较
实验结果表明,配备了 LightGPT 的 LLMLight 在所有基准测试中始终达到了 SOTA 或与经典方法同等的性能水平。尽管 Advanced-CoLight(当前最先进的强化学习方法)在杭州数据集上表现优于 LLMLight(LightGPT),但它的决策需要依赖与邻近路口之间的通信。
值得一提的是,LLMLight(LightGPT)仅利用当前路口的观测特征就展现出强有竞争的结果,表明了其决策显著的有效性。对于由通用型大模型驱动的 LLMLight,研究人员观察到 GPT-4 表现最为出色,并展示出与最先进强化学习方法相当的效果。
同时 Llama2-70B 和 13B 分别获得第二和第三名,这表明 LLM 在交通信号控制任务中也遵循了规模化定律(scaling law)。令人惊讶的是,ChatGPT-3.5 的表现最不理想。
泛化性的比较
该研究首先测试了不同方法的可迁移性。标有“-T”的模型是在不同的道路网络上预训练得到的(例如,使用在济南预训练的模型在杭州数据集上评估可迁移性)。反之则在相同的数据集上进行训练和测试。
该研究观察到强化学习方法在迁移后性能明显下降,尤其在济南 1 和杭州 1 数据集中表现尤为明显。相反,LLMLight(LightGPT)始终表现出优越的性能,并在所有数据集上展现出优异的可迁移性。
之后该研究分析了不同方法的可扩展性,测试它们在应用于规模更大的路网时的性能。可以观察到,大多数强化学习方法发生了显著性能下降,甚至表现出比启发式方法 Maxpressure 更差的性能。虽然最先进的强化学习方法在平均旅行时间(ATT)上与 LLMLight(LightGPT)相当,但值得注意的是,它们的决策会导致最高延长 57.80% 的等待时间(AWT)。
这一结果表明,强化学习方法侧重于优化排队车辆的总数,但可能会以牺牲少部分队列的等待时间为代价。在实际场景中,等待时间的重要性不容忽视。相比之下,LLMLight 可以同时确保最短的旅行时间和等待时间,体现了其拓展到规模更大的路网时的优良的可扩展性和适用性。
最后该研究为了探讨了在极端拥堵情况下不同模型的性能,在济南和杭州的路网上生成了两个合成交通流数据集,其流量相比原始数据集增加了约四倍。与可扩展性实验类似,强化学习方法也表现出显著的性能下降,表现出比 Maxpressure 更差的结果。相比之下,LLMLight(LightGPT)始终表现出卓越的性能,体现了其在更加繁重的交通条件下的稳健性和实用性。
可解释性分析
为了评估 LLMLight 的可解释性,研究人员在杭州数据集上进行了一个案例模拟。在这个模拟场景中,北部路段出现了严重拥堵,表现为排队的车辆出现积压。下图详细展示了 LightGPT 在此路况下的推理分析过程。
它以理解任务开始,并分析目标交叉口的交通情况以进行决策推理。随后,它明确信号灯 NLSL 为最优的选择。与强化学习方法不同,LLMLight 不仅在制定有效的控制策略方面表现出色,而且还能为每个决策提供其背后的详细解释。这一独特特征增强了 LLMLight 的透明度和可解释性,有助于研究人员更全面地理解其决策行为。
更多阅读
#投 稿 通 道#
让你的文字被更多人看到
如何才能让更多的优质内容以更短路径到达读者群体,缩短读者寻找优质内容的成本呢?答案就是:你不认识的人。
总有一些你不认识的人,知道你想知道的东西。PaperWeekly 或许可以成为一座桥梁,促使不同背景、不同方向的学者和学术灵感相互碰撞,迸发出更多的可能性。
PaperWeekly 鼓励高校实验室或个人,在我们的平台上分享各类优质内容,可以是最新论文解读,也可以是学术热点剖析、科研心得或竞赛经验讲解等。我们的目的只有一个,让知识真正流动起来。
📝 稿件基本要求:
• 文章确系个人原创作品,未曾在公开渠道发表,如为其他平台已发表或待发表的文章,请明确标注
• 稿件建议以 markdown 格式撰写,文中配图以附件形式发送,要求图片清晰,无版权问题
• PaperWeekly 尊重原作者署名权,并将为每篇被采纳的原创首发稿件,提供业内具有竞争力稿酬,具体依据文章阅读量和文章质量阶梯制结算
📬 投稿通道:
• 投稿邮箱:hr@paperweekly.site
• 来稿请备注即时联系方式(微信),以便我们在稿件选用的第一时间联系作者
• 您也可以直接添加小编微信(pwbot02)快速投稿,备注:姓名-投稿
△长按添加PaperWeekly小编
🔍
现在,在「知乎」也能找到我们了
进入知乎首页搜索「PaperWeekly」
点击「关注」订阅我们的专栏吧