4个令人惊艳的开源项目,诞生了!

大家好,今天继续聊聊科技圈发生的那些事。

一、LitGPT

LitGPT 是一款用于预训练、微调和部署 LLM 的命令行工具。

我们能看到主页有这样一句话:

For training the world's largest, most powerful open-source LLMs. (用于训练世界上最大、最强的开源 LLM。)

一看到这种最大、最强之类的词,我们难免心生疑惑。那么 LitGPT 是怎么做的呢?

LitGPT 重新实现了所有模型架构和训练配方:

  1. 去除所有抽象层,采用单一文件实现。
  2. 保证符合 Apache 2.0 标准,使企业使用不受任何限制。
  3. 优化每个模型的每个细节,以获得尽可能快的性能,从而降低成本和训练速度。

除此之外,LitGPT 还使用了很多先进的技术。比如用 LoRAAdapter 等进行参数微调,用 Flash Attention 降低显存读写,提高运行速度等,这都是优势所在。

另外,对于自行部署 LLM ,LitGPT 提供了 20 多种现成的 LLM 可供使用,其中不乏有许多我们耳熟能详的模型,比如 Llama 2。你可以使用这些模型配合自己的数据进行微调、预训练等。

项目的部署也很简单,用 pip 直接安装即可。剩下的内容,比如使用、预训练等操作,作者团队在项目主页也已经给出了完整的教学。

项目已经开源,想体验的小伙伴可以自行关注一下。

项目地址:

https://github.com/Lightning-AI/litgpt

二、Parler-TTS

Huggingface 最新推出的 TTS 模型,支持多种语言,支持个性定制化,使用非常简单。

对于先前常见的 TTS 模型,我们通常会选择语言、说话风格、语速等参数。但是 Parler - TTS 是没有这些可调参数的。那么,我们要如何定制我们想要生成的声音信息呢?

我们来看一下 Parler - TTS 的 prompt 实例,其中包含两个部分:

  • Input Text 输入文本
  • Description 描述

在这个 Description 部分,我们可以通过文本输入,提供我们想要的语音风格描述,比如声音的性别,语速快慢,音调高低,甚至是背景音的嘈杂程度和说话的清晰度。

另外,Parler - TTS 是完全开源的,包括权重信息、数据集等等。如果有谁想要在它的基础上进行一些“私人订制”或是微调,都是完全能实现的。

对于Parler - TTS 的本地安装,有多简单呢?一行代码!

pip install git+https://github.com/huggingface/parler-tts.git

说了这么多,我们回到这段话的开头,它的作者可是 Huggingface ,既然是 Huggingface 自己做的,想必我们一定能在线体验了吧?

答案是肯定的,不过这玩意目前还不支持中文。在此,我们就可以想象一段在未来用 Parler - TTS 生成的主播音:上链接

在线体验地址:

https://huggingface.co/spaces/parler-tts/parler_tts_mini

项目地址:

https://github.com/huggingface/parler-tts

三、InternLM-XComposer2

InternLM-XComposer2 ,一款图文多模态大模型,它还有个超帅的中文名字——浦语·灵笔2

InternLM-XComposer2 有两块大功能,一个是创建图文并茂的文章,另一个是多模态对话问答。

InternLM-XComposer2 可以理解多种形式的图文指令输入,包括大纲、文章细节要求、参考图片等,生成图文并茂的文章,例如项目团队展示的 demo,生成了一篇介绍熊猫的文章。

InternLM-XComposer2 具有海量图文知识,可以准确的回复各种图文问答难题。比如你可以在上传数学题的同时,把题目的参考图像一起发给 InternLM-XComposer2,就不用让它根据描述自行想象了。你也可以通过重复惩罚等参数调节,进行对话内容的微调。

InternLM-XComposer2 的性能表现也非常不错。在13项多模态评测中,InternLM-XComposer2 大幅领先同量级的多模态模型,在其中6项评测中超过 GPT-4V 和 Gemini Pro。

作者团队也给出了本地部署的安装教程,包括环境的配置,使用案例指导,多 GPU 条件下的脚本,4bit 模型的依赖等。我们也可以在线体验到这款优秀的模型。

在线体验地址:

https://huggingface.co/spaces/Willow123/InternLM-XComposer

对于这个项目,作者团队还在不断更新,我们可以期待一下后续的发展。

项目地址:

https://github.com/InternLM/InternLM-XComposer

四、30 Days Of Python

30 天,学会 Python !

一进项目的主页,扑面而来的就是令人倍感舒适、整洁有序的文件夹。

30 Days Of Python 这个项目,主要是一个 Python 教学向的大目录。为什么在此作出推荐分享呢?因为它实在是太精细了。

我们来简单看看文档部分:

在 01 章的 Introduction 中,直接从如何安装 Python 环境开始,再到简单的语法教学,如何看报错信息,甚至教你如何安装使用 VS Code !前人栽树,后人乘凉,确实是少走了很多弯路。至少对于一个从来没有接触过 Python ,甚至是编程的小白来说,配置编程环境也算是一道坎了。

在每一个章节的最后,作者团队也留下了练习,可以供初学者们加以巩固。有没有一种老师留课后作业的感觉?

我们再往后看看,往后的几章涉及到了变量、函数、字符串等基础的知识,越往后,学习到的内容就越深、越全面。比如,到了 Day 21 ,接触到了类和对象;更后面的 Day 25 ,使用 pandas 库处理数据,建立 Dataframe 等;尾声的 Day 28 、 Day 29,涉及 API 的使用和建立。

如果真的能抽出一些时间,完整的跟随这个项目进行为期一个月的学习,我相信初学者一定会受益匪浅,提升一大截编程水平。而“老鸟”们也一定会在这样一份干练的学习计划中,查缺补漏,加深记忆,同样有所收获。

再说回来,这份项目是全英文的,无论是对于在校生还是在职者,会不会也能顺便提升一点英文水平呢?一试便知,感兴趣的小伙伴可以点进项目主页看看。

项目地址:

https://github.com/Asabeneh/30-Days-Of-Python

好了,本期的内容就是这么多,我们下期再见!

·················END·················

相关推荐

  • Gemini Ultra训练烧掉近2亿美元!斯坦福迄今最全AI报告发布,中国AI专利数遥遥领先
  • 向用不起的AI宣战!宇视掀起“装备大模型化”变革
  • 跟这些头部厂商交流后,终于知道AIGC、大模型持续火爆的原因
  • 百度公开12个月打造AI原生应用思路!李彦宏再谈开源大模型!百度智能计算OS万源亮相,百度内部移动生态大变天!
  • 今日arXiv最热NLP大模型论文:一文读懂大模型的prompt技术
  • 李飞飞团队发布《2024年人工智能指数报告》,预测人工智能未来发展趋势
  • Lyft 如何利用 iOS 实时活动来提升用户体验
  • AI 数据中心的能源困境
  • AI 时代,这个团队正在打造全世界最复杂的高性能编辑器
  • 探索第三代指标平台:全新指标开发方法与复杂指标配置定义实践
  • 物化视图在 MaxCompute 中的探索与实践
  • 腾讯二面:@Bean 与 @Component 用在同一个类上,会怎么样?
  • 刘强东数字人首秀
  • 基于Kafka的六种事件驱动的微服务架构模式
  • 极长序列、极快速度:面向新一代高效大语言模型的LASP序列并行
  • DeepMind升级Transformer,前向通过FLOPs最多可降一半
  • Sora加入Adobe全家桶,视频改图加戏样样行:PR大更新预告
  • 兄弟们!重大机遇!请马上入局!!
  • 模型被投毒攻击,如今有了新的安全手段,还被AI顶刊接收
  • 特斯拉启动万人裁员!