当前位置:   article > 正文

Py之dashscope:dashscope的简介、安装和使用方法、案例应用之详细攻略_dashscope是什么

dashscope是什么

Py之dashscope:dashscope的简介、安装和使用方法、案例应用之详细攻略

目录

dashscope的简介

1、产品的主要特点和优势包括:

dashscope的安装和使用方法

1、安装

2、使用方法

dashscope的案例应用

1、通义千问-Max:通义千问2.5系列

2、通义千问-摘要增强版

3、Qwen-Long:支持最长1000万tokens


dashscope的简介

DashScope(模型服务灵积),灵积通过灵活、易用的模型API服务,让各种模态模型的能力,都能方便的为AI开发者所用。通过灵积API,开发者不仅可以直接集成大模型的强大能力,也可以对模型进行训练微调,实现模型定制化。

DashScope(模型服务灵积)是一个基于“模型即服务”(Model-as-a-Service,MaaS)理念的模型服务平台,由阿里云提供。该平台致力于为AI应用开发者提供丰富多样的模型选择,并通过标准化API接口提供包括模型推理、模型微调训练在内的多种模型服务。DashScope的服务以模型为中心,支持AI开发者通过简单的API调用直接集成大模型的能力,同时也支持对模型进行训练微调,实现模型的定制化。

此外,DashScope还提供了免费试用服务,允许开发者在开通服务后查看和使用多种模型。不同模型具有不同的计量单位和免费额度,具体计费方式根据所调用的模型决定。例如,某些模型的计费单元可能是token(用于表示自然语言文本的基本单位),而其他模型可能基于图片张数或时间(秒)进行计费。

总的来说,DashScope是一个功能强大且易于使用的模型服务平台,它为AI应用开发者提供了丰富的模型选择和灵活的服务,使得AI应用开发更加简单和高效。

官网模型服务灵积 DashScope - 阿里云

1、产品的主要特点和优势包括:

>> 灵活、易用的模型API服务:DashScope提供易于使用的API接口,使得开发者可以方便地集成和使用各种模态模型的能力。

>> 强大的模型支持:依托于业界各领域的优质模型和阿里云强大的基础设施,DashScope为开发者提供了广泛且强大的模型支持。

>> 模型定制化能力:除了直接集成大模型的能力,DashScope还支持对模型进行训练微调,以满足特定应用需求。

>> 标准化API接口:通过标准化的API,DashScope简化了模型服务的集成和使用过程,提高了开发效率。

>> 安全合规性:DashScope提供跨地域的弹性高可用保障、精准的访问权限控制和全面的平台审计功能,确保模型服务全链路的安全稳定和可信。

dashscope的安装和使用方法

1、安装

  1. pip install dashscope
  2. pip install -i https://mirrors.aliyun.com/pypi/simple dashscope

2、使用方法

  1. from http import HTTPStatus
  2. import dashscope
  3. from dashscope import Generation
  4. dashscope.api_key = 'sk-********6b8ff'
  5. responses = Generation.call(model=Generation.Models.qwen_turbo,
  6. prompt='今天天气好吗?')
  7. if responses.status_code == HTTPStatus.OK:
  8. print(responses.output['text'])
  9. else:
  10. print('Failed request_id: %s, status_code: %s, code: %s, message:%s' %
  11. (responses.request_id, responses.status_code, responses.code,
  12. responses.message))

dashscope的案例应用

持续更新中……

更多案例应用阿里云登录 - 欢迎登录阿里云,安全稳定的云计算服务平台

1、通义千问-Max:通义千问2.5系列

通义千问2.5系列千亿级别超大规模语言模型,支持中文、英文等不同语言输入。随着模型的升级,qwen-max将滚动更新升级。如果希望使用固定版本,请使用历史快照版本。当前qwen-max模型与qwen-max-0428快照版本等价,均为最新版本的qwen-max模型。

  1. from http import HTTPStatus
  2. from dashscope import Generation
  3. def call_with_stream():
  4. messages = [
  5. {'role': 'user', 'content': '如何做西红柿炖牛腩?'}]
  6. responses = Generation.call("qwen-max",
  7. messages=messages,
  8. result_format='message', # 设置输出为'message'格式
  9. stream=True, # 设置输出方式为流式输出
  10. incremental_output=True # 增量式流式输出
  11. )
  12. for response in responses:
  13. if response.status_code == HTTPStatus.OK:
  14. print(response.output.choices[0]['message']['content'], end='')
  15. else:
  16. print('Request id: %s, Status code: %s, error code: %s, error message: %s' % (
  17. response.request_id, response.status_code,
  18. response.code, response.message
  19. ))
  20. if __name__ == '__main__':
  21. call_with_stream()

2、通义千问-摘要增强版

在大模型通用能力基础上,专门增强了大模型的「文本摘要和总结」能力。

  1. # 业务空间模型调用请参考文档传入workspace信息: https://help.aliyun.com/document_detail/2746874.html
  2. from http import HTTPStatus
  3. from dashscope import Generation
  4. def call_with_stream():
  5. messages = [
  6. {'role': 'user', 'content': '如何做西红柿炖牛腩?'}]
  7. responses = Generation.call("bailian-summary",
  8. messages=messages,
  9. result_format='message', # 设置输出为'message'格式
  10. stream=True, # 设置输出方式为流式输出
  11. incremental_output=True # 增量式流式输出
  12. )
  13. for response in responses:
  14. if response.status_code == HTTPStatus.OK:
  15. print(response.output.choices[0]['message']['content'],end='')
  16. else:
  17. print('Request id: %s, Status code: %s, error code: %s, error message: %s' % (
  18. response.request_id, response.status_code,
  19. response.code, response.message
  20. ))
  21. if __name__ == '__main__':
  22. call_with_stream()

3、Qwen-Long:支持最长1000万tokens

Qwen-Long是在通义千问针对超长上下文处理场景的大语言模型,支持中文、英文等不同语言输入,支持最长1000万tokens(约1500万字或1.5万页文档)的超长上下文对话。配合同步上线的文档服务,可支持word、pdf、markdown、epub、mobi等多种文档格式的解析和对话。 说明:通过HTTP直接提交请求,支持1M tokens长度,超过此长度建议通过文件方式提交。

  1. from openai import OpenAI
  2. client = OpenAI(
  3. api_key="$your-dashscope-api-key", # 替换成真实DashScope的API_KEY
  4. base_url="https://dashscope.aliyuncs.com/compatible-mode/v1", # 填写DashScope服务endpoint
  5. )
  6. completion = client.chat.completions.create(
  7. model="qwen-long",
  8. messages=[
  9. {
  10. 'role': 'system',
  11. 'content': 'You are a helpful assistant.'
  12. },
  13. {
  14. 'role': 'system',
  15. 'content': '大型语言模型(llm)已经彻底改变了人工智能领域,使以前被认为是人类独有的自然语言处理任务成为可能...'
  16. },
  17. {
  18. 'role': 'user',
  19. 'content': '文章讲了什么?'
  20. }
  21. ],
  22. stream=True
  23. )
  24. for chunk in completion:
  25. if chunk.choices[0].delta.content is not None:
  26. print(chunk.choices[0].dict())

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/小桥流水78/article/detail/869700
推荐阅读
相关标签
  

闽ICP备14008679号