当前位置:   article > 正文

在Colab上试跑langchain 和 huggingface的整合_huggingfacehub_api_token

huggingfacehub_api_token

环境准备:

获取【HUGGINGFACEHUB_API_TOKEN】,登录huggingface官网并完成注册。

官网:https://huggingface.co/

获取tokenhttps://huggingface.co/settings/tokens

colab上安装 huggingface_hub

!pip install -q huggingface_hub

【1】创建问答提示模版Creating a Question-Answering Prompt Template

  1. from langchain import PromptTemplate
  2. template = """Question: {question}
  3. Answer: """
  4. prompt = PromptTemplate(
  5. template=template,
  6. input_variables=['question']
  7. )
  8. # user question
  9. question = "What is the capital city of China?"

【2】使用huggingface_hub模型“google/flan-t5-large”来回答问题,huggingfaceHub 类将连接到 HuggingFace 的推理 API 并加载指定的模型。

  1. from langchain import HuggingFaceHub, LLMChain
  2. # initialize Hub LLM
  3. hub_llm = HuggingFaceHub(
  4. repo_id='google/flan-t5-large',
  5. model_kwargs={'temperature':0},
  6. huggingfacehub_api_token='your huggingfacehub_api_token'
  7. )
  8. # create prompt template > LLM chain
  9. llm_chain = LLMChain(
  10. prompt=prompt,
  11. llm=hub_llm
  12. )
  13. # ask the user question about the capital of France
  14. print(llm_chain.run(question))

【3】输出结果

beijing

 

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/知新_RL/article/detail/465266
推荐阅读
相关标签
  

闽ICP备14008679号