当前位置:   article > 正文

Macbook pro M3 Max 128G使用体验_mac m3 max 微调大模型

mac m3 max 微调大模型

好久没写文章了,今天来谈谈M3 Max的使用感受。

Stable Diffusion:

使用ComfyUI来完成绘图任务,使用ByteDance/SDXL-Lightning模型微调版本

参数设置

运行日志:

[2024-03-24 17:11]

100%|█████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████| 27/27 [00:40<00:00, 1.72s/it]

100%|█████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████| 27/27 [00:40<00:00, 1.50s/it]

[2024-03-24 17:11] Prompt executed in 41.75 seconds

40秒推理生成完成,还不错。

附安装过程:

  1. # https://developer.apple.com/metal/pytorch/
  2. pip3 install --pre torch torchvision torchaudio --extra-index-url https://download.pytorch.org/whl/nightly/cpu
  3. git clone https://github.com/comfyanonymous/ComfyUI.git
  4. cd ComfyUI
  5. python -m pip install -r requirements.txt
  6. python -m pip uninstall mpmath
  7. python -m pip install mpmath==1.3.0
LLM大语言模型

1. Mixtral 8x7b 混合专家模型

mistralai/Mixtral-8x7B-Instruct-v0.1

有一定的内存压力,不过每秒依然可以保证10个token的输出。

  1. a_cpu = torch.rand(1000, device='cpu')
  2. b_cpu = torch.rand((1000, 1000), device='cpu')
  3. a_mps = torch.rand(1000, device='mps')
  4. b_mps = torch.rand((1000, 1000), device='mps')
  5. print('cpu', timeit.timeit(lambda: a_cpu @ b_cpu, number=100_000))
  6. print('mps', timeit.timeit(lambda: a_mps @ b_mps, number=100_000))

cpu 1.9363472090335563

mps 1.4238181249820627

感觉mps并没有提升多少的感觉,这是为什么呢?

  1. def test_cpu():
  2. a_cpu = torch.rand(1000, device='cpu')
  3. b_cpu = torch.rand((1000, 1000), device='cpu')
  4. a_cpu @ b_cpu
  5. def test_mps():
  6. a_mps = torch.rand(1000, device='mps')
  7. b_mps = torch.rand((1000, 1000), device='mps')
  8. a_mps @ b_mps
  9. print('cpu', timeit.timeit(lambda: test_cpu(), number=1000))
  10. print('mps', timeit.timeit(lambda: test_mps(), number=1000))

cpu 2.2735738750197925

mps 0.4514276669942774

mps有更好的caching表现,所以比较节省时间

我后面将会对Finetuning,RAG检索增强,大语言模型处理Instructions性能这块进行分析。

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/AllinToyou/article/detail/620603
推荐阅读
相关标签
  

闽ICP备14008679号