太酷了!iPhone、iPad、MacBook老旧设备组成异构集群,能跑Llama 3

机器之心报道

机器之心编辑部

假如你有闲置的设备,或许可以试一试。


这次,你手里的硬件设备也能在 AI 领域大展拳脚了。


将 iPhone、iPad、Macbook 进行组合,就能组装成「异构集群推理方案」, 然后顺畅的运行 Llama3 模型。


值得一提的是,这个异构集群可以是 Windows 系统,也可以是Linux、iOS 系统,并且对 Android 的支持很快到来。


集群正在运行中。

根据项目作者 @evilsocket 的介绍,这个异构集群包括 iPhone 15 Pro Max、iPad Pro、MacBook Pro (M1 Max)、NVIDIA GeForce 3080、2x NVIDIA Titan X Pascal。所有代码都已经上传到 GitHub。


看到这,网友纷纷表示,这位老哥确实不简单。


不过也有网友开始担心能耗问题,暂且不管速度,电费都耗不起。来回搬数据,损耗太大了。


项目介绍


上述功能的实现,离不开一个名为 Cake 的 Rust 框架。Cake 可以完成大模型(例如 Llama3)的分布式推理,旨在将消费级硬件组合成异构集群,其中消费级硬件采用多种操作系统,包括:iOS、Android、macOS、Linux 和 Windows,从而使 AI 更易于访问。


项目地址:https://github.com/evilsocket/cake


Cake 的主要思路是将 transformer 块分片到多个设备,以便能够让通常不适合单个设备 GPU 内存的模型运行推理。对同一工作线程上的连续 transformer 块的推理是分批进行的,以便最大限度地减少数据传输造成的延迟。


Cake 目前支持的系统和设备如下:


编译


安装 Rust 后,运行下列代码:


cargo build --release


假如用户想要在应用程序中生成 iOS 绑定,可以进行下述操作:


make ios


使用


运行 worker 节点:


cake-cli --model /path/to/Meta-Llama-3-8B \ # model path, read below on how to optimize model size for workers         --mode worker \                    # run as worker         --name worker0 \                   # worker name in topology file         --topology topology.yml \          # topology         --address 0.0.0.0:10128            # bind address


运行 master 节点:


cake-cli --model /path/to/Meta-Llama-3-8B \         --topology topology.yml


其中 topology.yml 确定哪些层由哪个 worker 提供服务:


linux_server_1:  host: 'linux_server.host:10128'description: 'NVIDIA Titan X Pascal (12GB)'layers:    - 'model.layers.0-5'linux_server_2:  host: 'linux_server2.host:10128'description: 'NVIDIA GeForce 3080 (10GB)'layers:    - 'model.layers.6-16'iphone:  host: 'iphone.host:10128'description: 'iPhone 15 Pro Max'layers:    - 'model.layers.17'ipad:  host: 'ipad.host:10128'description: 'iPad'layers:    - 'model.layers.18-19'macbook:  host: 'macbook.host:10128'description: 'M1 Max'layers:    - 'model.layers.20-31'


关于内存和磁盘空间优化问题,用户可能希望只向 worker 提供模型中实际需要的数据,而不是整个文件夹,在这种情况下,可以使用 cake-split-model 。例如,要生成较小版本的 llama3 safetensors,可以采用如下代码:


cake-split-model --model-path path/to/Meta-Llama-3-8B \ # source model to split                 --topology path/to/topology.yml \      # topology file                 --output output-folder-name


参考链接:https://x.com/tuturetom/status/1812654489972973643


创意为王安全为先,AIGC的双线作战

7月17日,《AIGC体验派》第五期,邀请到火山引擎内容安全与风控负责人张建洋和NVIDIA企业级开发者社区高级经理何琨,一起聊聊AIGC在营销领域的创新与安全问题:
  • 如何避免大语言模型不再胡言乱语?

  • 如何确保AIGC创作内容的质量与安全?

  • 如何避免营销活动成为黑产的提款机?

识别海报二维码点击阅读原文,立即报名直播。


© THE END 

转载请联系本公众号获得授权

投稿或寻求报道:content@jiqizhixin.com

相关推荐

  • 全程免费!「真格星球AI+创业营」与十数位大咖导师一道,碰撞AI灵感、寻找落地商机
  • [Pnetlab实战演练]手把手教你配置华为防火墙的Telnet远程访问!
  • 从草稿到样品图,只需要一步AI|AI产品测评
  • 大模型“玩”Excel更6了,微软搞的
  • 初创公司硬刚英伟达:在AMD卡上模拟CUDA,原版程序直接编译运行
  • 大模型集体失智!9.11和9.9哪个大,几乎全翻车了
  • 《隐秘的角落》的“朱朝阳”,考上了双一流大学!
  • 因博士论文数据造假,她被撤销学位后还丢掉了教职!
  • 90个顶会开源NeRF创新思路!
  • 鱼皮的 Java 学习路线《速览版》
  • MySQL 事务默认隔离级别是什么?这必须得会啊
  • 刚刚博客园又发求救信,说实在的我有点懵逼
  • 协方差矩阵适应进化算法实现高效特征选择
  • 微软偷偷决定不开源 Linux 及 macOS 版 WebView2,网友:等了四年,我还是用 Electron?!
  • 谷歌 | 物品-语言大模型推荐系统
  • 与全参数微调相比,Lora微调的性能到底如何?
  • 深度学习可视化大全(附 GitHub 源码)
  • 副教授,也不安全了!
  • 如何优雅的将设计模式运用到实际项目中去?
  • FullGC 40次/天到10天1次,真牛B!!