英伟达终于发布自家大语言模型,专攻辅助芯片设计

夕小瑶科技说 分享
来源 | 量子位

英伟达推出了自家最新430亿参数大语言模型——ChipNeMo

对于它的用途,英伟达在官方披露消息中也是非常的明确,剑指AI芯片设计。

具体而言,ChipNeMo可以帮助工作人员完成与芯片设计相关的任务——

包括回答有关芯片设计的一般问题、总结bug文档,以及为EDA工具编写脚本等等

英伟达首席科学家Bill Dally对此表示:

我们的目标是让英伟达的设计师更有效率。
即使我们的生产率(因ChipNeMo)只提高了几个百分点,这也是值得的。

▲英伟达首席科学家Bill Dally

以英伟达H100 Tensor Core GPU为例,它由数百亿个晶体管组成,在显微镜下看着就像是一个精心规划建设的城市一般。

这些晶体管连接在比人类头发丝还细10000倍的“街道”上,需要多个工程团队协作两年多的时间来完成,其间繁琐且庞大的工作量,可见一斑。

因此,在英伟达看来,随着ChipNeMo这样大语言模型的问世,所有的工作流程都将在效率上得以提升。

用Bill Dally的话来说:

这项工作标志着将大语言模型应用于半导体设计的复杂工作的重要第一步。
它展示了即使是高度专业化的领域,也可以使用其内部数据来训练有用的生成式AI模型。

英伟达设计芯片有了新帮手

总体来看,ChipNeMo能够帮助英伟达内部的芯片设计师们完成三大方面的工作。

首先就是问答。

ChipNeMo包含一个原型聊天机器人,它可以回答有关 GPU 架构和设计的问题,帮助许多工程师在早期测试中快速找到技术文档。

例如,你可以向它提问:

为什么我们要添加重新计时阶段(retiming stages)?

ChipNeMo就会基于这个问题,给出精准的答案:

重新计时阶段的增加是为了改善设计的时序,并考虑到芯片不同部分之间的物理距离。

通过增加重定时级,我们可以减少信号在芯片不同部分之间传输所需的时间,这有助于提高设计的整体性能。

此外,重定时级还可以帮助减少信号上可能出现的噪声和干扰的数量,从而进一步提高设计的性能。

其次是DEA脚本生成。

例如只需向ChipNeMo用自然语言提出想要生成代码的要求即可:

在TOOL1中编写代码,输出给定矩形(0,0,100,100)中触发器单元的数量。

仅需静候片刻,带着注释的代码片段“啪的一下”就生成了。

据了解,英伟达目前还在对代码生成器(如下图所示)进行开发,它将来会和现有的工具做一个集成,好让工程师用起来更加方便。

最后是Bug总结和分析。

芯片设计人员只需要向ChipNeMo描述一下情况即可,例如prompt的内容可能包括Bug的ID、Synopsis、Module和Description等等。

而后ChipNeMo就会根据prompt,给出做好的技术总结和管理总结等。

ChipNeMo是怎么炼成的?

首先在数据集方面,英伟达主要采用的Bug总结、设计源(Design Source)、文档以及维基百科、GitHub等硬件相关的代码和自然语言文本。

再经过一个集中的数据采集过程来收集,最终在清洗和过滤之后,形成了241亿个token。

其次在算法、架构设计方面,英伟达并没有直接拿目前已商用、开源的大语言模型来做部署。

而是主要采用了这些领域自适应(Domain-Adapted)技术,包括自定义标记器、领域自适应持续预训练、带有领域特定指令的监督微调(SFT),以及领域自适应检索模型。

在此方法之下,便提高了大语言模型在工程助理聊天机器人、EDA脚本生成和Bug摘要和分析等三个应用中的性能。

结果显示,这些领域自适应技术使得大语言模型的性能超过通用基础模型;同时模型大小最多可减少5倍,且保持相似或更好的性能。

不过论文作者也坦言:

虽然目前的结果已经取得了一些进展,但与理想结果之间仍存在改进空间。进一步研究领域适应的LLM方法将有助于缩小这一差距。

参考资料

 [1]https://blogs.nvidia.com/blog/2023/10/30/llm-semiconductors-chip-nemo/
[2]https://www.eetimes.com/nvidia-trains-llm-on-chip-design/
[3]https://d1qx31qr3h6wln.cloudfront.net/publications/ChipNeMo%20%2824%29.pdf 

相关推荐

  • 复杂任务也不怕!上海AI Lab提出增强型LLM框架—ControlLLM,大模型可操控多模态工具
  • 吴恩达怒斥AI阴谋、Hinton自证清白!Lecun掀起图灵奖大战、哈萨比斯进行回怼!美国AI顶流圈乱象纪实…
  • PyTorch 2.1 正式发布,带来自动动态 Shape 支持和分布式训练增强
  • Meta 的无服务器平台是如何做到每天处理数万亿次函数调用的
  • 从互联网到云计算再到 AI 原生,百度智能云数据库的演进 | Q推荐
  • AIGC 是亏钱货?网易杭研是如何抓住大模型价值的
  • OpenAI 刚刚又杀死了一批初创公司
  • 这是我见过最强的Java版内网穿透神器!
  • 一行代码搞定禁用web开发者工具
  • “液态金属”材料亮相,科学方法沙漠取水,这届WE大会很赛博朋克
  • vivo自研大模型/操作系统齐面世!蓝心大模型加持最新OriginOS4
  • OpenAI潜入黑客群聊!盗用ChatGPT被换成“喵喵GPT”,网友:绝对的传奇
  • 姚班斯隆奖马腾宇创业:大模型+顾问李飞飞
  • 单点端到端文本检测识别框架速度提升19倍!华科、华南理工等联合发布SPTS v2
  • 专攻芯片设计,英伟达推出定制版大语言模型ChipNeMo!
  • EDA顶会ICCAD放榜!陈怡然团队摘得「时间检验奖」,表彰十年前论文
  • DeepMind曝新一代AlphaFold,预测准确率暴涨近10%!DNA和RNA的AlphaFold时刻来了
  • 图灵三巨头激战持续升级!吴恩达痛批美国AI禁令扼杀开源,马斯克都下场了
  • ICCV 2023 | 首个用于目标检测任务的直接训练脉冲神经网络
  • 交叉熵损失的“替代品”:基于最优传输思想设计的分类损失函数EMO