当前位置:   article > 正文

Gemma尝鲜:本地笔记本流畅运行Gemma_gemma2b运行条件

gemma2b运行条件

各种办法尝试个遍,这样弄保证你能开始玩儿。

准备

PC一台,有无GPU随意。硬盘几十G。
Python3.11以上。
根据是否由GPU、GPU型号不同,安装不同的PyTorch(PyTorch安装指令

下载Gemma

  1. 安装HuggingFace CLI
  2. 下载: huggingface-cli download --local-dir . google/gemma-2b-it

Clone

git clone https://github.com/aiXpertLab/Run-Google-Gemma-Locally-on-Desktop-Laptop.git

源码

# from transformers import AutoModelForSeq2SeqLM, AutoTokenizer
from transformers import AutoTokenizer, AutoModelForCausalLM

model_name = "google/gemma-2b-it"
tokenizer = AutoTokenizer.from_pretrained(model_name)
model=AutoModelForCausalLM.from_pretrained("google/gemma-2b-it", device_map="auto")

input_text = "write me a poem about beautifuly woman."
input_ids = tokenizer(input_text, return_tensors="pt").to("cuda")
outputs = model.generate(**input_ids)
print(tokenizer.decode(outputs[0]))
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11

更多更详细的内容,在github✨⭐✨:

点个⭐,码更行!
https://github.com/aiXpertLab/Run-Google-Gemma-Locally-on-Desktop-Laptop
点个赞,开源❤️!

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/你好赵伟/article/detail/361416
推荐阅读
相关标签
  

闽ICP备14008679号