赞
踩
美国当地时间4月18日,Meta 开源了 Llama3 大模型,目前开源版本为 8B 和 70B 。Llama 3 模型相比 Llama 2 具有重大飞跃,并在 8B 和 70B 参数尺度上建立了 LLM 模型的新技术。由于预训练和后训练的改进,Llama3 模型是目前在 8B 和 70B 参数尺度上存在的最好的模型。训练后程序的改进大大降低了错误拒绝率,改善了一致性,增加了模型响应的多样性。我们还看到了推理、代码生成和指令跟踪等功能的极大改进,使 Llama 3 更具可操控性。
Llama3 是 Meta AI 公司开发的一个基于 transformer 架构的大型语言模型,可以生成人类般的文本,回答问题,甚至进行创作,具有强大的语言理解和生成能力。
特点
应用场景
优点
缺点
不愧为 AI 浪潮里卖铲子的,NVIDIA 具有其他公司无可比拟的 AI 算力,在线上,给出了 llama3-70b 试用:
也可以通过代码来调用:
- from openai import OpenAI
-
- client = OpenAI(
- base_url = "https://integrate.api.nvidia.com/v1",
- api_key = "$API_KEY_REQUIRED_IF_EXECUTING_OUTSIDE_NGC"
- )
-
- completion = client.chat.completions.create(
- model="meta/llama3-70b-instruct",
- messages=[{"role":"user","content":"介绍一下llama3,用中文"}],
- temperature=0.5,
- top_p=1,
- max_tokens=1024,
- stream=True
- )
-
- for chunk in completion:
- if chunk.choices[0].delta.content is not None:
- print(chunk.choices[0].delta.content, end="")

Ollama是专门为本地化运行大模型设计的软件,可以运行大多数开源大模型,如llama,gemma,qwen等,首先去官网下载Ollama软件:https://ollama.com/ ,最简单的方式是使用Docker 来跑, 此次运行是包括web端的一起运行,所以使用docker-compose
打包一起运行以下容器:
ollama/ollama:latest
open-webui:latest
在Ollama官方的Models栏目中,找到我们要的模型, 直接访问这个链接:https://ollama.com/library/llama3。
在cmd命令行中运行命令:ollama pull llama3:8b,下载模型。
本地使用
总的来说,Llama3 是一个功能强大且灵活的语言模型,可以应用于多种语言任务和场景。
老徐,2024/4/29
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。