当前位置:   article > 正文

【LLM大模型】Ollama 本地CPU部署开源大模型

【LLM大模型】Ollama 本地CPU部署开源大模型

Ollama可以在本地CPU非常方便地部署许多开源的大模型。

如 Facebook的llama3, 谷歌的gemma, 微软的phi3,阿里的qwen2 等模型。

完整支持的模型列表可以参考:https://ollama.com/library

它基于llama.cpp实现,本地CPU推理效率非常高(当然如果有GPU的话,推理效率会更高), 还可以兼容 openai的接口。

本文将按照如下顺序介绍Ollama的使用方法~

⚫️ 下载安装Ollama

⚫️ 命令行交互

⚫️ python接口交互

⚫️ jupyter魔法命令交互

一,下载安装 Ollama

可以从官网下载Ollama: https://ollama.com/

mac版本的压缩文件大概180M多,正常网速大概下载几分钟就下完了。

支持mac,linux, win 操作系统,跟正常的软件一样安装 。

安装好后就可以在命令行中进行交互了。

以下是一些常用的命令。

代码语言:javascript

ollama run qwen2 #跑qwen2模型,如果本地没有,会先下载

ollama pull llama3 #下载llama3模型到本地

ollama list #查看本地有哪些模型可用

ollama rm #删除本地的某个模型

ollama help #获取帮助
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9

代码语言:javascript

!ollama help
  • 1

代码语言:javascript

Large language model runner

Usage:
  ollama [flags]
  ollama [command]

Available Commands:
  serve       Start ollama
  create      Create a model from a Modelfile
  show        Show information for a model
  run         Run a model
  pull        Pull a model from a registry
  push        Push a model to a registry
  list        List models
  ps          List running models
  cp          Copy a model
  rm          Remove a model
  help        Help about any command

Flags:
  -h, --help      help for ollama
  -v, --version   Show version information

Use "ollama [command] --help" for more information about a command.
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15
  • 16
  • 17
  • 18
  • 19
  • 20
  • 21
  • 22
  • 23
  • 24

二, 命令行交互

可以在命令行中用 ollama run qwen2 运行一个模型,然后在命令行中和它对话。

下面的gif动画没有做任何加速。这个回复速度还是非常的感人的~

三,Python接口交互

在命令行运行 诸如 ollama run qwen2,实际上就会在后台起了一个qwen2的模型服务。

我们就可以用Python代码和qwen2做交互了。

我们可以选择ollama官方出的 ollama-python的库的接口进行交互,也可以使用openai这个库的接口进行交互。

代码语言:javascript

import subprocess
#后台启动一个qwen2模型服务,相当于 在命令行中运行 `ollama run qwen2`
cmd = ["ollama","run qwen2"]
process = subprocess.Popen(cmd, stdout=subprocess.PIPE, stderr=subprocess.PIPE)
  • 1
  • 2
  • 3
  • 4
1,使用ollama-python 库进行交互

代码语言:javascript

#!pip install ollama
  • 1

代码语言:javascript

import ollama
response = ollama.chat(model='qwen2',
                       stream=False,
    messages=[{'role': 'user',
            'content': '段子赏析:我已经不是那个当年的穷小子了,我是今年的那个穷小子。'}]
)
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6

代码语言:javascript

print(response['message']['content'])
  • 1

代码语言:javascript

这个段子通过幽默的方式表达了对于个人经济状况的自嘲和幽默看待。在日常生活中,人们经常会遇到相似的自我调侃,尤其是在讨论个人财务或生活阶段变化时。这段话中的“已经不是当年的穷小子”暗示了过去某个时间点上的经济状况不佳,而“我是今年的那个穷小子”则将当前的情况与过去的困境相比较,强调了现在依然处于类似的经济挑战中。

通过这种自我调侃的方式,人们可以减轻对于自身困境的关注和压力。幽默不仅是一种释放紧张情绪的手段,也是增进人际关系、建立共鸣的有效工具。在面对生活中的不如意时,以轻松幽默的态度去看待问题,不仅可以帮助个人保持乐观的心态,还能够使对话氛围更加和谐有趣。

这样的段子也提醒我们,在追求物质财富的同时,保持内心的平和与对生活的积极态度同样重要。通过分享类似的经历或自我调侃,可以增进人们之间的理解和支持,构建一个更包容、更乐观的社会环境。
  • 1
  • 2
  • 3
  • 4
  • 5

代码语言:javascript

    2, 使用openai接口交互

    代码语言:javascript

    #!pip install openai
    
    • 1

    ollama还支持非常热门的openai接口,简简单单,本地就mock了一个chatgpt。

    这样许多基于openai接口开发的工具(如lanchain,pandasai)就可以使用 ollama支持的免费开源模型替代chatgpt了。

    我们这里演示其流式输出模式。

    代码语言:javascript

    from openai import OpenAI
    client = OpenAI(
        base_url='http://localhost:11434/v1/',
        api_key='ollama', #实际上本地模型不需要api_key
    )
    
    completion = client.chat.completions.create(
        messages=[
            {
                'role': 'user',
                'content': '段子赏析:爱一个人的眼神是藏不住的,爱两个人就一定要藏住。',
            }
        ],
        model='qwen2',
        stream=True  # add this line to enable streaming output
    )
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8
    • 9
    • 10
    • 11
    • 12
    • 13
    • 14
    • 15
    • 16

    代码语言:javascript

    from IPython.display import display,clear_output 
    response = ""
    for chunk in completion:
        response += chunk.choices[0].delta.content
        print(response)
        clear_output(wait=True)
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6

    代码语言:javascript

    这个段子以幽默的方式探讨了爱情中的微妙之处。它指出当爱一个人时,人们很容易在眼神、言语和行动中流露出这份情感,而这种直接表达是无心之失,却也容易被察觉或误解。
    
    “爱一个人的眼神是藏不住的”,这句话强调了爱情中的热情与自然流露,当我们深爱某人时,哪怕试图掩饰,那份炽热的情感还是会在我们的眼睛里反映出来。这可能是不经意间的微笑、温柔的目光或是无法抗拒的关心与注意。人们往往在无意识中用身体语言表达出自己的感情,尤其是在真正爱一个人的时候。
    
    然而,“爱两个人就一定要藏住”,则可能暗示了对爱情的不同层次或更复杂的考量。这里可能是指,在某些情境下,为了维护关系的平衡、隐私或是避免多头恋等复杂情感关系带来的困扰,需要在行为和表达上更加谨慎或保守。“藏住”可能意味着要控制自己的公开表现、减少与第二个人过于亲密的行为以及降低自己情绪上的直接暴露。
    
    这个段子通过对比单恋情和双恋情在眼神或情感流露方面的不同态度,提出了爱情中的多重考量和策略。它既体现了对直接表达情感的欣赏,也提醒了人们在复杂情感关系中可能需要考虑的因素。
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7

    代码语言:javascript

      四,jupyter魔法命令交互

      就我个人而言,我非常喜欢在jupyter notebook 中开发调试代码。

      如果能够在notebook中就直接和ollama交互,并且自动把对话结果加入到history上下文,从而实现多轮对话交互,那是非常的美妙。

      通过自定义一个jupyter 魔法命令,我们可以非常方便地实现上述功能。

      完整定义代码见notebook源码。

      代码语言:javascript

      import sys 
      class Ollama:
          def __init__(self,
                       model='qwen2',
                       max_chat_rounds=20,
                       stream=True,
                       system=None,
                       history=None
                      ):
              ...
                   
          @classmethod
          def build_messages(cls,query=None,history=None,system=None):
              ...
              return messages
      
          def chat(self, messages, stream=True):
              ...
              return completion
              
              
          def __call__(self,query):
              ...
              return response 
          
          def register_magic(self):
              import IPython
              from IPython.core.magic import (Magics, magics_class, line_magic,
                                              cell_magic, line_cell_magic)
              ...
              magic = ChatMagics(ipython,self)
              ipython.register_magics(magic)
      
      • 1
      • 2
      • 3
      • 4
      • 5
      • 6
      • 7
      • 8
      • 9
      • 10
      • 11
      • 12
      • 13
      • 14
      • 15
      • 16
      • 17
      • 18
      • 19
      • 20
      • 21
      • 22
      • 23
      • 24
      • 25
      • 26
      • 27
      • 28
      • 29
      • 30
      • 31
      • 32

      代码语言:javascript

        如何系统的去学习AI大模型LLM ?

        作为一名热心肠的互联网老兵,我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在人工智能学习中的很多困惑,所以在工作繁忙的情况下还是坚持各种整理和分享。

        但苦于知识传播途径有限,很多互联网行业朋友无法获得正确的资料得到学习提升,故此将并将重要的 AI大模型资料 包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来

        所有资料 ⚡️ ,朋友们如果有需要全套 《LLM大模型入门+进阶学习资源包》,扫码获取~

        声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/码创造者/article/detail/854095
        推荐阅读
        相关标签