赞
踩
随着生成式人工智能(AIGC)技术的蓬勃发展,技术创作者们再次涌入一个充满挑战与机遇的新领域。Amazon Bedrock 是一个专为创新者设计的平台,它提供了构建生成式人工智能应用程序所需的一切工具和资源。无论您的技术背景如何,Amazon Bedrock 都能让您快速上手并体验到最新的生成式人工智能技术。对于AI新手和希望提升技能的专家来说,Amazon Bedrock 都是一个强大的助力。
今天我们就来一场酣畅淋漓的手把手教程, 让我们快速轻松的感受生成式人工智能的构建
点击链接 如下图所示点击开始实验
进入操作页面开启生成式ai 之旅吧!!
模型这里我们选择 Meta => LIama2 Chat 70B 吞吐量 按需即可
选择完成之后 点击应用
当我们点击应用之后 效果如下
名称 | 解释 |
---|---|
随机性和多样性 | 通过将输出限制为更可能的结果或改变输出概率分布的形状来影响生成的响应的变化。 |
长度 | 通过指定结束响应生成的最大长度或字符序列来限制响应。 |
我提出的问题是 : JavaScript 中如和理解闭包
回复如下:
对于代码解释看起来还是有点东西的哦!!
打开控制台,搜索Cloud9, 点击进入
温馨提示:
首次进入 Cloud9 实验环境中需要等待加载
在Amazon Cloud9 IDE中,选择 终端
在终端中输入如下命令
cd ~/environment/
curl 'https://dev-media.amazoncloud.cn/doc/workshop.zip' --output workshop.zip
unzip workshop.zip
等待解压完成
继续使用 终端,安装实验所需的环境依赖项
pip3 install -r ~/environment/workshop/setup/requirements.txt -U
参数 | 说明 |
---|---|
prompt复制 | 要传递给模型的提示,这是必填项。 |
temperature复制 | 降低响应的随机性,默认值为0.5,取值范围是0到1。 |
top_p复制 | 忽略可能性较小的选项,默认值为0.9,取值范围是0到1。 |
max_gen_len复制 | 生成响应的最大令牌数,默认值为512,取值范围是1到2048。 |
{
"generation": "\n\n<response>",
"prompt_token_count": int,
"generation_token_count": int,
"stop_reason" : string
}
参数 | 解释意思 |
---|---|
生成 | 指生成的文本。 |
prompt_token_count复制 | 表示提示中的代币数量。 |
generation_token_count复制 | 代表生成的文本中的标记数量。 |
stop_reason复制 | 用于说明响应停止生成文本的原因。其可能的值为:1、stop 意味着模型已结束为输入提示生成文本。2、length表示生成的文本的词元长度超过了对 InvokeModel(如果需要对输出进行流式传输,则为 InvokeModelWithResponseStream)的调用中的 max_gen_len 值。此时响应会被截断为 max_gen_len 个词元。可考虑增大 max_gen_len 的值并重试。 |
import json
import boto3
session = boto3.Session()
bedrock = session.client(service_name='bedrock-runtime') #初始化Bedrock客户端库
bedrock_model_id = "meta.llama2-70b-chat-v1" #设置模型
prompt = "说一下冒泡排序的原理?" #提示词
body = json.dumps({
"prompt": prompt,
"max_gen_len": 2048,
"temperature":0.5,
"top_p":0.9
})
response = bedrock.invoke_model(body=body, modelId=bedrock_model_id, accept='application/json', contentType='application/json') #发送调用请求
response_body = json.loads(response.get('body').read())
response_text=response_body['generation'] #从 JSON 中返回相应数据
print(response_text)
cd ~/environment/workshop/labs/api
python bedrock_api.py
8 运行结果如下
import json import boto3 session = boto3.Session() bedrock = session.client(service_name='bedrock-runtime') #初始化Bedrock客户端库 bedrock_model_id = "meta.llama2-70b-chat-v1" #设置模型 prompt = "说一下冒泡排序的原理?" #提示词 body = json.dumps({ "prompt": prompt, "max_gen_len": 2048, "temperature":0.5, "top_p":0.9 }) response = bedrock.invoke_model(body=body, modelId=bedrock_model_id, accept='application/json', contentType='application/json') #发送调用请求 response_body = json.loads(response.get('body').read()) response_text=response_body['generation'] #从 JSON 中返回相应数据 print(response_text)
是不是很简单呢
随着生成式人工智能的逐渐火爆, 期待小伙伴们也快快的加入进来体验一番吧!!
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。