选择GPT-3.5、还是微调Llama 2等开源模型?综合比较后答案有了

机器之心编译

选自 ragntune 的博客

编辑:rome rome

通过对 GPT-3.5 和 Llama 2 在不同任务上的微调对比,我们可以得知在什么情况下选择 GPT-3.5,什么情况下选择 Llama 2 或其他模型。


众所周知,对 GPT-3.5 进行微调是非常昂贵的。本文通过实验来验证手动微调模型是否可以接近 GPT-3.5 的性能,而成本只是 GPT-3.5 的一小部分。有趣的是,本文确实做到了。


在 SQL 任务和 functional representation 任务上的结果对比,本文发现:


  • GPT-3.5 在两个数据集(Spider 数据集的子集以及 Viggo functional representation 数据集)上都比经过 Lora 微调的 Code Llama 34B 表现略微好一点。

  • GPT-3.5 的训练成本高出 4-6 倍,部署成本也更高。


本实验的结论之一是微调 GPT-3.5 适用于初始验证工作,但在那之后,像 Llama 2 这样的模型可能是最佳选择,简单总结一下:


  • 如果你想验证微调是解决特定任务 / 数据集的正确方法,又或者想要一个完全托管的环境,那么微调 GPT-3.5。

  • 如果想省钱、想从数据集中获取最大性能、想要在训练和部署基础设施方面具有更大的灵活性、又或者想要保留一些私有数据,那么就微调类似 Llama 2 的这种开源模型。


接下来我们看看,本文是如何实现的。


下图为 Code Llama 34B 和 GPT-3.5 在 SQL 任务和 functional representation 任务上训练至收敛的性能。结果表明,GPT-3.5 在这两个任务上都取得了更好的准确率。



在硬件使用上,实验使用的是 A40 GPU,每小时约 0.475 美元。



此外,实验选取了两个非常适合进行微调的数据集,Spider 数据集的子集以及 Viggo functional representation 数据集。


为了与 GPT-3.5 模型进行公平的比较,实验对 Llama 进行了最少超参数微调。


本文实验的两个关键选择是使用 Code Llama 34B 和 Lora 微调,而不是全参数微调。


实验在很大程度上遵循了有关 Lora 超参数微调的规则,Lora 适配器配置如下:



SQL 提示示例如下:


SQL 提示部分展示,完整提示请查看原博客


实验没有使用完整的 Spider 数据集,具体形式如下

department : Department_ID [ INT ] primary_key Name [ TEXT ] Creation [ TEXT ] Ranking [ INT ] Budget_in_Billions [ INT ] Num_Employees [ INT ] head : head_ID [ INT ] primary_key name [ TEXT ] born_state [ TEXT ] age [ INT ] management : department_ID [ INT ] primary_key management.department_ID = department.Department_ID head_ID [ INT ] management.head_ID = head.head_ID temporary_acting [ TEXT ]


实验选择使用 sql-create-context 数据集和 Spider 数据集的交集。为模型提供的上下文是一个 SQL 创建命令,如下所示:


CREATE TABLE table_name_12 (class VARCHAR, frequency_mhz VARCHAR, city_of_license VARCHAR)


SQL 任务的代码和数据地址:https://github.com/samlhuillier/spider-sql-finetune


functional representation 提示的示例如下所示:


functional representation 提示部分展示,完整提示请查看原博客


输出如下所示:


verify_attribute(name[Little Big Adventure], rating[average], has_multiplayer[no], platforms[PlayStation])


评估阶段,两个实验很快就收敛了:



functional representation 任务代码和数据地址:https://github.com/samlhuillier/viggo-finetune


了解更多内容,请查看原博客。


原文链接:

https://ragntune.com/blog/gpt3.5-vs-llama2-finetuning?continueFlag=11fc7786e20d498fc4daa79c5923e198




© THE END 

转载请联系本公众号获得授权

投稿或寻求报道:content@jiqizhixin.com

相关推荐

  • 语言、机器人破壁,MIT等用GPT-4自动生成模拟任务,并迁移到真实世界
  • 狂揽10k star,微软AutoGen框架太火了,智能体聊聊天就把问题解决了
  • OpenAI科学家最新大语言模型演讲火了,洞见LLM成功的关键
  • 权威赛事:“先锋杯”数字孪生创新应用大赛已火热开赛!
  • AirPods可以“读脑”了?还是能同时监测汗液乳酸浓度的那种|Nature
  • 大语言模型击败扩散模型!视频图像生成双SOTA,谷歌CMU最新研究,一作北大校友
  • OpenAI悄悄更改“价值观”:不All in AGI的别来沾边
  • 全面的中文大语言模型评测来啦!香港中文大学研究团队发布
  • GPT-4V被曝离谱bug:突然执行神秘代码,空白图片读出打折信息,网友们都看呆了
  • 这款Java调优方案,放到大厂相当炸裂!
  • 一文讲透时序和序列数据的存储、搜索、分析及挖掘
  • LLM in Reranking——利用LLM进行重排
  • 软考证书,彻底爆了!!
  • 400万token,大模型推理飙升22倍!清华校友爆火一作,GitHub狂揽1.8k星
  • 前端新特性:Compute Pressure API!!!
  • 截至 2023 年,我个人的 C 编程风格
  • 微软超 5000 亿“天价”收购完成;AI 耗电相当于一个国家年用电量;Ubuntu 23.10 镜像遭下架 | 极客头条
  • 阿里内部首发前端开发手册,完整版开放下载了!
  • 学会 arthas,让你 3 年经验掌握 5 年功力!
  • Spring Batch 批处理框架优化实践,效率嘎嘎高!