当前位置:   article > 正文

谷歌Gemini API 应用(二):LangChain 加持_langchain4j stream apikey

langchain4j stream apikey

昨天我完成了谷歌Gemini API 应用(一):基础应用这篇博客,今天我们要在此基础上实现Gemini模型的Langchian加持,因为Gemini API刚发布没几天,所以langchian还没有来得及将其整合到现有的langchain包的架构内,langchain公司目前发布了需要独立安装的支持Gemini API的langchain包:“langchain-google-genai”, 相信过不了多久它就会被整合到现有的langchain包的架构内。

一,配置环境

我们需要安装以下python包

  1. pip -q install google-generativeai==0.3.1
  2. pip -q install langchain-google-genai
  3. pip -q install langchain_experimental langchain_core
  4. pip -q install "langchain[docarray]"

二、配置API_KEY

当我们在Google AI Studio页面上创建了api key以后,我们就可以在本地通过该api_key来访问谷歌的Gemini Pro等模型,下面我们来导入本次实验需要使用的python包,并配置谷歌的api_key:

  1. import google.generativeai as genai
  2. from IPython.display import display
  3. from IPython.display import Markdown
  4. import os
  5. os.environ["GOOGLE_API_KEY"] = 'your_google_api_key'#填入自己的api_key

三、模型查看

下面我们查看一下本次实验需要使用的三个谷歌Gemini模型的具体信息:

  1. genai.configure(api_key=os.environ["GOOGLE_API_KEY"])
  2. models = [m for m in genai.list_models()
  3. if m.name in (['models/gemini-pro',
  4. 'models/gemini-pro-vision',
  5. 'models/embedding-001'])]
  6. models

在本次实验中我们会用到谷歌的三个模型分别是 语言模型gemini-pro,多模态模型gemini-pro-vision,嵌入模型embedding-001,上面我们列出来了这3个模型的具体信息包括具体的参数如输入,输出的token大小的限制等。下面我们先原生的Gemini的api来实现最基本的内容生成功能:

  1. prompt = '你是谁,你能做什么?'
  2. model = genai.GenerativeModel('gemini-pro')
  3. response = model.generate_content(prompt)
  4. Markdown(response.text)

四、Gemini with LangChain

接下来我们通过LangChain来实现上述的内容生成功能:

  1. from langchain_google_genai import ChatGoogleGenerativeAI,GoogleGenerativeAIEmbeddings
  2. from langchain.vectorstores import DocArrayInMemorySearch
  3. from langchain.prompts import ChatPromptTemplate
  4. from langchain.schema.output_parser import StrOutputParser
  5. llm = ChatGoogleGenerativeAI(model="gemini-pro")
  6. result = llm.invoke("LLM 是什么?")
  7. Markdown(result.content)

这里我们看到通过langchian也很轻松的实现了gemini的内容生成的功能,不过这里需要说明的是我们在创建langchain的llm的时候我们并没有填写apk_key, 这是因为这里的gemini的llm它默认会去读取os的api_key的环境变量,因为在前面的代码中我们已经配置好了os的api_key,所以这里在创建llm时就无需填写api_key的参数了。

五、langchain的stream和batch

流式(stream)输出和批处理(batch)是langchain的两大优秀功能,流式输出可以给用户带来更好的用户体验,而批处理则可以提高用户的工作效率,因为它可以让llm同时处理多个问题,下来我们就来测试一下langchain的stream和batch能力:

  1. for chunk in llm.stream("写一首关于躺平的打油诗。"):
  2. print(chunk.content)
  3. print("---------------------")

 因为流式输出每次只输出部分结果,所以响应时间比较短,这会给用户带来比较好的用户体验,下面我们看一下批处理:

  1. results = llm.batch(
  2. [
  3. "2+2等于几?",
  4. "3+5等于几?",
  5. ]
  6. )
  7. for res in results:
  8. print(res.content)

这里我们同时向llm询问了两个简单的数学问题,llm能够同时给出这些问题的正确答案,这说明llm具备同时处理多个问题的能力。

六、Chain的使用

在我之前的多篇博客中都详细介绍了在langchian中使用chain的方法,这里我们也要尝试一下在gemini模型环境下如何来使用chian。

  1. model = ChatGoogleGenerativeAI(model="gemini-pro",
  2. temperature=0.7)
  3. prompt = ChatPromptTemplate.from_template(
  4. "给我讲一个关于{topic}的笑话"
  5. )
  6. output_parser = StrOutputParser()
  7. chain = prompt | model | output_parser
  8. response = chain.invoke({"topic": "躺平"})
  9. print(response)

这里我们使用了langchain的LCEL语法创建了一个chian, 这和我们之前介绍langchian的博客中的方法是一样的,同样我们也能得到想要的结果,不过这里我们需要说明的是,这里我们在创建model的时候设置了参数temperature=0.7, temperature这个参数的取值范围为0-1,它表示生成结果的随机性,temperature越高,产生结果的随机性越大,因此当我们需要让llm讲故事或者讲笑话的时候,我们可以适当调高temperature的值,这样每次都会产生不一样的结果的概率就会比较大,而当我们需要llm做一些严谨的数学或者逻辑的推理/计算时,我们可以调低temperature的值,甚至可以将temperature设置为0,因为这时候我们需要llm给出严谨的唯一的答案。

七、简单的RAG

在我之前的使用langchain与你自己的数据对话系列的博客中详细介绍了RAG即检索增强生成(Retrieval Augmented Generation),现在我们也需要测试一下gemini模型的RAG能力,下面我们创建一个简单的向量数据库,并存储四条文本,然后我们向llm询问有关文本的内容:

  1. embeddings = GoogleGenerativeAIEmbeddings(model="models/embedding-001")
  2. vectorstore = DocArrayInMemorySearch.from_texts(
  3. ["Gemini Pro 是 GoogleDeepMind 开发的大型语言模型。",
  4. "Gemini 可以是一个星座,也可以是一系列语言模型的名称。",
  5. "人是由恐龙进化而来的。",
  6. "熊猫喜欢吃天鹅肉。"],
  7. embedding=embeddings # passing in the embedder model
  8. )
  9. retriever = vectorstore.as_retriever()

这里我们创建了一个内存向量数据库,并向其中存储了4条文本,然后使用了gemini的嵌入模型“embedding-001”作为文本嵌入工具,最后我们通过向量数据库创建了一个检索器retriver, 接下来我们可以通过检索器retriver来检索向量数据库中的相关文档:

retriever.get_relevant_documents("Gemini 是什么?")

 这里我们看到检索器retriver返回了相关的文档,并按文档的内容与问题的相关度对文档进行了排序。

retriever.get_relevant_documents("人从哪里来的?")

接下来我们来创建chian, 不过在创建chian之前我们需要创建prompt模板和RunnableMap,最后将它们组合成一个chain:

  1. from langchain.schema.runnable import RunnableMap
  2. #创建prompt模板
  3. template = """Answer the question a a full sentence, based only on the following context:
  4. {context}
  5. Question: {question}
  6. """
  7. #由模板生成prompt
  8. prompt = ChatPromptTemplate.from_template(template)
  9. #创建chain
  10. chain = RunnableMap({
  11. "context": lambda x: retriever.get_relevant_documents(x["question"]),
  12. "question": lambda x: x["question"]
  13. }) | prompt | model | output_parser

当我们创建完chain以后就可以使用invoke方法来调用chain了:

  1. #调用chain
  2. chain.invoke({"question": "谁开发了 Gemini Pro?"})

 

chain.invoke({"question": "Gemini是什么?"})

 

chain.invoke({"question": "人是从哪里来的?"})

 

chain.invoke({"question": "熊猫喜欢吃什么?"})

八、PAL Chain

PALChain是Langchain中用于生成代码的程序辅助语言模型 (PAL) 解决方案。 PAL 是论文“Program-Aided Language Models”中描述的一种技术 (https://arxiv.org/pdf/2211.10435.pdf)下面我们使用langchian的PALChain来实现两个简单的数学逻辑推理题:

  1. from langchain_experimental.pal_chain import PALChain
  2. model = ChatGoogleGenerativeAI(model="gemini-pro",
  3. temperature=0)
  4. pal_chain = PALChain.from_math_prompt(model, verbose=True)

 这里我们创建了一个model和pal_chain ,并设置了temperature=0, 这是因为我们接下来需要做严谨的逻辑推理,不需要llm产生随机性的结果,因此我们设置了temperature=0。

  1. question ="食堂有23个苹果。如果午餐用了20个,之后又买了6个,那么食堂最后还剩多少个苹果?"
  2. pal_chain.invoke(question)

 这里我们看到pal_chain在内部定义了一个solution的pyhon函数,并在该函数中做了逻辑推理,最后得到了正确的计算结果。

  1. question ="""
  2. 如果小明早上 7:00 起床,并且他在家花了 1 小时吃早餐,
  3. 然后又花了 30 分钟步行去学校,小明几点到的学校?
  4. """
  5. pal_chain.invoke(question)

 这里我们看到llm对时间的概念还存在一点问题,它并没有将最后的结果8.5转换成时间格式,而是直接以十进制的格式给出了最后的答案。

九、多模态支持

在langchain中使用多模态模型时我们需要用到langchian的HumanMessage类,它规定了一套与多模态模型对话的格式,下面我们将会将一个图片的url地址,然后询问gemini的多模态模型关于图片内容的问题:

  1. import requests
  2. from IPython.display import Image
  3. image_url = "https://upload.wikimedia.org/wikipedia/commons/e/e7/Everest_North_Face_toward_Base_Camp_Tibet_Luca_Galuzzi_2006.jpg"
  4. content = requests.get(image_url).content
  5. Image(content,width=300)

  1. from langchain_core.messages import HumanMessage
  2. from langchain_google_genai import ChatGoogleGenerativeAI
  3. llm = ChatGoogleGenerativeAI(model="gemini-pro-vision")
  4. # example
  5. message = HumanMessage(
  6. content=[
  7. {
  8. "type": "text",
  9. "text": "这个图片里有什么,它位于什么地方?",
  10. }, # You can optionally provide text parts
  11. {
  12. "type": "image_url",
  13. "image_url": image_url
  14. },
  15. ]
  16. )
  17. llm.invoke([message])

 这里我们给gemini-pro-visio模型一张珠穆朗玛峰的图片url,然后询问图片里有什么,它位于什么地方,我们看到llm能准确识别图片中的内容,并且给出了珠穆朗玛峰的地理位置,效果还是不错的。

总结

今天我们学习了在langchain中使用gemin模型的的一些方法,总的来说使用方法和其他的模型如openai的模型的方法都是类似的。今天我们还尝试了langchain的stream和beath方法在gemini模型上的应用,还介绍了RAG、PAL Chain的应用,最后我们用一个简单例子介绍了langchain中使用gemini多模态模型的方法。希望今天的内容对大家学习gemini大模型有所帮助

参考资料

https://www.wpsshop.cn/w/2023面试高手/article/detail/225384

推荐阅读
相关标签
  

闽ICP备14008679号