当前位置:   article > 正文

用 Python + LLM 实现一个智能对话_python llm

python llm

大型语言模型LLM最近比较火,所以我也来用LLM写个智能对话玩玩。

简介

大语言模型LLM全称是Large Language Models。LLM是指具有巨大参数量和极高语言理解能力的神经网络模型。这些模型被训练来理解和生成自然语言文本,能够执行多种自然语言处理(NLP)任务,如文本生成、翻译、摘要、问答等。 所以LLM可以做以下事情:

  • 文本生成:LLM可以生成各种类型的文本,如新闻、文章、小说等。
  • 智能对话系统:LLM可以用于构建智能对话系统,能够理解用户输入并生成合理的回复。
  • 信息检索和摘要:LLM可以帮助搜索引擎生成更准确的搜索结果摘要。
  • 语言翻译:LLM可以将一种语言翻译成另一种语言。
  • 语言理解和分析:LLM可以用于解析和理解自然语言文本,提取其中的信息和意义。

安装依赖

主要是安装transformers和torch

pip install transformers

  • 1
  • 2
pip install torch

  • 1
  • 2

加载模型和分词器

tokenizer = GPT2Tokenizer.from_pretrained("gpt2")
model = GPT2LMHeadModel.from_pretrained("gpt2")

  • 1
  • 2
  • 3

实现对话逻辑

def chat(prompt, max_length=200):
    # 将输入文本编码成模型可识别的tokens
    input_ids = tokenizer.encode(prompt, return_tensors="pt")
    # 生成对话
    response_ids = model.generate(input_ids, max_length=max_length, num_return_sequences=1, temperature=0.9)
    # 解码tokens成文本字符串
    response_text = tokenizer.decode(response_ids[0], skip_special_tokens=True)
    return response_text

  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9

调用聊天函数

这里是循环聊天

while True:
    user_input = input("You:")
    if user_input.lower() == "exit":
        print("Goodbye!")
        break
    response = chat(user_input)
    print("Bot:", response)

  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8

完整代码

from transformers import GPT2LMHeadModel, GPT2Tokenizer

# 加载预训练的GPT-2模型和分词器
tokenizer = GPT2Tokenizer.from_pretrained("gpt2")
model = GPT2LMHeadModel.from_pretrained("gpt2")

def chat(prompt, max_length=200):
    # 将输入文本编码成模型可识别的tokens
    input_ids = tokenizer.encode(prompt, return_tensors="pt")

    # 生成对话response
    response_ids = model.generate(input_ids, max_length=max_length, num_return_sequences=1, temperature=0.9)

    # 解码response tokens成文本
    response_text = tokenizer.decode(response_ids[0], skip_special_tokens=True)
    return response_text

# 进入对话循环
while True:
    user_input = input("You:")
    if user_input.lower() == "exit":
        print("Goodbye!")
        break
    response = chat(user_input)
    print("Bot:", response)


  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15
  • 16
  • 17
  • 18
  • 19
  • 20
  • 21
  • 22
  • 23
  • 24
  • 25
  • 26
  • 27

目前模型训练还不够智能,所以对话稍显逊色。

之后实现有前端界面的,之后再更新文章。

如何学习AI大模型?

我在一线互联网企业工作十余年里,指导过不少同行后辈。帮助很多人得到了学习和成长。

我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在人工智能学习中的很多困惑,所以在工作繁忙的情况下还是坚持各种整理和分享。但苦于知识传播途径有限,很多互联网行业朋友无法获得正确的资料得到学习提升,故此将并将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。

在这里插入图片描述

第一阶段: 从大模型系统设计入手,讲解大模型的主要方法;

第二阶段: 在通过大模型提示词工程从Prompts角度入手更好发挥模型的作用;

第三阶段: 大模型平台应用开发借助阿里云PAI平台构建电商领域虚拟试衣系统;

第四阶段: 大模型知识库应用开发以LangChain框架为例,构建物流行业咨询智能问答系统;

第五阶段: 大模型微调开发借助以大健康、新零售、新媒体领域构建适合当前领域大模型;

第六阶段: 以SD多模态大模型为主,搭建了文生图小程序案例;

第七阶段: 以大模型平台应用与开发为主,通过星火大模型,文心大模型等成熟大模型构建大模型行业应用。

在这里插入图片描述

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/天景科技苑/article/detail/1012042
推荐阅读
相关标签