赞
踩
腾讯云高性能应用服务(Hyper Application lnventor,HA),是一款面向 Al、科学计算的 GPU 应用服务产品,为开发者量身打造的澎湃算力平台。无需复杂配置,便可享受即开即用的GPU云服务体验。在 HA] 中,根据应用智能匹配并推选出最适合的 GPU 算力资源,以确保您在数据科学、LLM、AI作画等高性能应用中获得最佳性价比此外,HAI的一键部署特性让您可以在短短几分钟内构建如 StableDifusion、ChatGLM 等热门模型的应用环境。而对于 Al 研究者,我们的直观图形界面大大降低了调试的复杂度,支持jupyterlab、webui 等多种连接方式,助您轻松探索与创新。现在,只需打开浏览器,HAI 便为您打开了一片无限可能的高性能应用领域。
目前腾讯云正联合CSDN共同发起腾讯云高性能应用服务HAI新品先锋体验官招募活动,申请内测且通过,即可获得10元腾讯云高性能服务HAI的无门槛代金券,直接使用服务无后顾之忧。
在本次活动中,官方有给出2个实验手册,同时每间隔一段时间还有技术直播,来自原厂的工程师为我们直播讲解使用方法及案例。那么今天就通过2个官方案例来带大家速通一下。
来自官方活动群的信息:
第一个实验手册:如何利用HAI轻松拿捏AI作画
https://csdn-res-1253910586.cos.ap-nanjing.myqcloud.com/HAI-AIGC.html
第二个实验手册:未来对话:HAI创作个人专属的知识宇宙
https://csdn-res-1253910586.cos.ap-nanjing.myqcloud.com/HAI-ChatGLM2.html
特别提醒完成【实验如何利用HAI轻松拿捏AI作画】时,可以利用本次实验搭建的环境参与AIGC创作。作品图片私发给小助手,最好是横板高清图的,保证定制手提电脑包好看。
在HAI购买页面,选择AI模型下的SD(Stable Diffusion)进行部署即可,部署时长大约在10分钟左右!
平台上选用模型的服务建立后,可以点击算力连接,进入到预置的AI模型界面或者Jupyter Notebook界面
使用claude2生成prompts及参数建议,使用SD生成
claudeAI网页:https://claude.ai/
M:请你描述以下功夫熊猫,并且将描述转换为v1-5-prund-emaonly.safetensors版本可识别的prompt
C:好的,我会尽力描述功夫熊猫并转换为适合的prompt
一个非常可爱的熊猫,身穿橙色的道袍,头上戴着黑色的头巾,两手展开摆出功夫动作,眼神透露出精神和专注,表情认真严肃,周围没有任何人,只有这只熊猫在空旷的道场练武,背景是典型的中国功夫场景。
转换为 v1-5-prund-emaonly.safetensors 可识别的prompt:
A cute panda wearing an orange martial arts uniform and a black headband, posing in a kung fu stance with paws extended. Its gaze conveys focus and determination with a serious expression. It is alone practicing kung fu in an empty dojo, set against a typical Chinese martial arts background.
M:建议设置参数为?
C:对于生成功夫熊猫图片,我建议设置以下参数:
关键参数说明:
你可以根据自己的需要调整这些参数,生成理想的功夫熊猫图片。
可以根据自身需求,额外增加功能,例如Deforum这种。
个人使用来看,属于简洁版的SD,功能还是挺少的,相较之阿里云的PAI EAS上创建的SD还是有差距,但是可以在界面上面拓展,这也给了用户更多选择,轻装上阵!
话说第二个场景,就是GenAI对话,同样的步骤,只不过是将AI模型从Stable Diffusion换成了ChatGLM-2B,
实验手册给出了非常消息的操作步骤,包括有:
那么用户直接去启动一个高性能服务实例,默认打开的页面就是原生的一个基础界面,UI效果这些还是不会有实验手册这样好,例如后面调用ChatGLM2-6B,通过使用Cloud Studio(云端 IDE),实现更加精美的页面。整体的一个操作流程用户层面来讲,就是Ctrl+C和Ctrl+V,CV大法无限好!
这界面可以说是及其简单,极简风了
M:用python3编写一个http服务器,开放9090端口,等待接收用户的发送消息,当用户发送请求来,打印用户的IP及其端口,并对用户发送的内容进行md5加密后,返回给客户端。 C:以下是一个使用Python的http.server模块和hashlib模块的简单HTTP服务器,可以实现您的需求。请确保您已安装了http.server模块。如果没有安装,请运行以下命令进行安装: pip install http.server 然后,使用以下代码创建一个简单的HTTP服务器: import http.server import ssl import hashlib import sys PORT = 9090 class MyHTTPRequestHandler(http.server.SimpleHTTPRequestHandler): def end_headers(self): self.send_header('Content-type', 'text/plain') http.server.SimpleHTTPRequestHandler.end_headers(self) class ThreadedHTTPServer(http.server.HTTPServer): # 启用SSL ssl_certfile = '/path/to/your/ssl/certificate.crt' ssl_keyfile = '/path/to/your/ssl/private.key' # 设置服务器和端口 server_address = ('', PORT) # 创建一个ThreadedHTTPServer实例 httpd = http.server.ThreadedHTTPServer(server_address, MyHTTPRequestHandler) # 启动服务器 print(f'Starting httpd...') httpd.serve_forever() if __name__ == '__main__': server_address = ('', PORT) httpd = ThreadedHTTPServer(server_address, MyHTTPRequestHandler) print(f'httpd is listening at {server_address}') httpd.serve_forever() 请将/path/to/your/ssl/certificate.crt和/path/to/your/ssl/private.key替换为您的SSL证书和私钥文件的路径。如果证书和私钥文件不存在,请提供正确的文件路径。 运行此代码后,您将看到一个简单的HTTP服务器,等待来自客户端的请求。每个请求将包括发送者的IP地址和端口,以及请求内容。请求内容将使用MD5进行加密,然后返回给客户端。
可以看出配合其自身生态产品,可玩性很高!
遵循实验步骤进行部署,大概率不会出错,唯一可能会出错的地方,应该是显存消耗的问题,在用户运行ChatGLM-2B页面生成对话后,其显存几乎快爆掉了,那么这时如果用户没有将ChatGLM-2b这个页面进程给杀掉,那么后续的实验步骤就会报错,导致整个实验卡住。用户可以采取以下方式进行解决,这里提供一点思路:
看到实例配置,8毛8还是花的比较值的
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。