赞
踩
近期做了一个简单的demo需求,搭建一个http server,支持简单的qa查询。库中有10000个qa对,需要支持每秒10000次以上的查询请求。
需求比较简单,主要难点就是10000+的RPS。首先使用python + uwsgi写了个简单的demo,压测后发现,RPS只有几千,达不到性能要求。后来部署了多个服务,使用nginx做负载均衡才勉强达到需求。
Japronto
后来经过google 搜索,发现了Japronto,github地址https://github.com/squeaky-pl/japronto,性能非常强悍,可以看下作者提供的性能图:
为什么可以有这么高的性能,因为Japronto 做了大量优化,其中最主要的是HTTP pipelining,Japronto 用它来做执行并发请求的优化。大多数服务器把来自客户端的pipelining和non-pipelining请求都一视同仁,用同样的方法处理,并没有做针对性的优化。
其他细节可以参考 https://medium.freecodecamp.org/million-requests-per-second-with-python-95c137af319 和 https://github.com/squeaky-pl/japronto
测试
采用docker的方式进行部署的,按照官网的例子
1、拉取镜像
docker pull japronto/japronto
2、编写测试代码
#examples/1_hello/hello.py
from japronto importApplication#Views handle logic, take request as a parameter and#returns Response object back to the client
defhello(request):return request.Response(text=‘Hello world!‘)#The Application instance is a fundamental concept.#It is a parent to all the resources and all the settings#can be tweaked here.
app =Application()#The Router instance lets you register your handlers and execute#them depending on the url path and methods
app.router.add_route(‘/‘, hello)#Finally start our server and handle requests until termination is#requested. Enabling debug lets you see request logs and stack traces.
app.run(debug=True)
3、启动docker 容器
docker run -p 8080:8080 -v $(pwd)/hello.py:/hello.py japronto/japronto --script /hello.py
使用wrk进行压测,使用 单线程,100个连接,压测30s。结果如下
wrk -c 100 -t 1 -d 30s http://192.168.86.10:8077/
Running 30s test @ http://192.168.86.10:8077/
1 threads and 100 connections
Thread Stats Avg Stdev Max +/- Stdev
Latency 1.88ms 548.76us 17.70ms 88.46%
Req/Sec 53.43k 2.40k 54.86k 96.33%
1593994 requests in 30.02s, 139.85MB read
Requests/sec: 53104.58
Transfer/sec: 4.66MB
压测结果受服务器,运行方式等影响,虽然和给出的数据相差较大,但是性能也是非常强悍的。
不过比较遗憾的是,目前这个项目已经暂停更新了
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。