当前位置:   article > 正文

使用四种框架分别实现百万 websocket 常连接的服务器_websocket框架有哪些

websocket框架有哪些

1、原文地址 colobu.com

事实上,最近我又增加了几个框架,现在包括 Netty, Undertow, Jetty, Spray, Vert.x, Grizzly 和 Node.js 七种框架。
测试数据可以看下一篇文章: 七种 WebSocket 框架的性能比较

著名的 C10K 问题提出的时候, 正是 2001 年。这篇文章可以说是高性能服务器开发的一个标志性文档,它讨论的就是单机为 1 万个连接提供服务这个问题,当时因为硬件和软件的限制,单机 1 万还是一个非常值得挑战的目标。但是时光荏苒,随着硬件和软件的飞速发展,单机 1 万的目标已经变成了最简单不过的事情。现在用任何一种主流语言都能提供单机 1 万的并发处理的能力。所以现在目标早已提高了 100 倍,变成 C1000k,也就是一台服务器为 100 万连接提供服务。在 2010 年, 2011 年已经看到一些实现 C1000K 的文章了,所以在 2015 年,实现 C1000K 应该不是一件困难的事情。

本文是我在实践过程中的记录,我的目标是使用 spran-websocket,netty, undertow 和 node.js 四种框架分别实现 C1000K 的服务器,看看这几个框架实现的难以程度,性能如何。开发语言为 Scala 和 Javascript。

当然,谈起性能,我们还必须谈到每秒每个连接有多少个请求,也就是 RPS 数,还要考虑每条消息的大小。
一般来说,我们会选取一个百分比,比如每秒 20% 的连接会收发消息。我的需求是服务器只是push, 客户端不会主动发送消息。 一般每一分钟会为这一百万群发一条消息。

所以实现的测试工具每个 client 建立 60000 个 websocket 连接,一共二十个 client。实际不可能使用 20 台机器,我使用了两台 AWS C3.2xlarge(8 核 16G) 服务器作为客户端机。每台机器 10 个客户端。
服务器每 1 分钟群发一条消息。消息内容很简单,只是服务器的当天时间。

最近看到 360 用 Go 实现的消息推送系统,下面是他们的数据:

目前 360 消息推送系统服务于 50 + 内部产品,万款开发平台 App,实时长连接数亿量级,日独数十亿量级,1 分钟内可以实现亿量级广播,日下发峰值百亿量级,400 台物理机,3000 多个实例分布在 9 个独立集群中,每个集群跨国内外近 10 个 IDC。

四个服务器的代码和 Client 测试工具代码可以在 github 上下载。 (其实不止四种框架了,现在包括 Netty, Undertow, Jetty, Spray-websocket, Vert.x, Grizzly 和 Node.js 七种框架的实现)

测试下来可以看到每种服务器都能轻松达到同时 120 万的 websocket 活动连接,只是资源占用和事务处理时间有差别。120 万只是保守数据,在这么多连接情况下服务器依然很轻松,下一步我会进行 C2000K 的测试。

在测试之前我们需要对服务器 / 客户机的一些参数进行调优。

一、服务器的参数调优

一般会修改两个文件,/etc/sysctl.conf/etc/security/limits.conf, 用来配置 TCP/IP 参数和最大文件描述符。

TCP/IP 参数配置

修改文件/etc/sysctl.conf, 配置网络参数。

net.ipv4.tcp_wmem = 4096 87380 4161536

net.ipv4.tcp_rmem = 4096 87380 4161536

net.ipv4.tcp_mem = 786432 2097152 3145728
  • 1
  • 2
  • 3
  • 4
  • 5

数值根据需求进行调整。更多的参数可以看以前整理的一篇文章: Linux TCP/IP 协议栈调优

执行/sbin/sysctl -p即时生效。

最大文件描述符

Linux 内核本身有文件描述符最大值的限制,你可以根据需要更改:

  • 系统最大打开文件描述符数:/proc/sys/fs/file-max
    1. 临时性设置:echo 1000000 > /proc/sys/fs/file-max
    2. 永久设置:修改/etc/sysctl.conf文件,增加fs.file-max = 1000000
  • 进程最大打开文件描述符数
    使用ulimit -n查看当前设置。使用ulimit -n 1000000进行临时性设置。
    要想永久生效,你可以修改/etc/security/limits.conf文件,增加下面的行:
*         hard    nofile      1000000

*         soft    nofile      1000000

root      hard    nofile      1000000

root      soft    nofile      1000000
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7

还有一点要注意的就是 hard limit 不能大于/proc/sys/fs/nr_open,因此有时你也需要修改 nr_open 的值。
执行echo 2000000 > /proc/sys/fs/nr_open

查看当前系统使用的打开文件描述符数,可以使用下面的命令:

[root@localhost ~]# cat /proc/sys/fs/file-nr             

1632    0       1513506
  • 1
  • 2
  • 3

其中第一个数表示当前系统已分配使用的打开文件描述符数,第二个数为分配后已释放的(目前已不再使用),第三个数等于 file-max。

总结一下:

  • 所有进程打开的文件描述符数不能超过 / proc/sys/fs/file-max
  • 单个进程打开的文件描述符数不能超过 user limit 中 nofile 的 soft limit
  • nofile 的 soft limit 不能超过其 hard limit
  • nofile 的 hard limit 不能超过 / proc/sys/fs/nr_open

应用运行时调优

  1. Java 应用内存调优
    服务器使用 12G 内存,吞吐率优先的垃圾回收器:
JAVA_OPTS="-Xms12G -Xmx12G -Xss1M -XX:+UseParallelGC"
  • 1
  1. V8 引擎
node --nouse-idle-notification --expose-gc --max-new-space-size=1024 --max-new-space-size=2048 --max-old-space-size=8192 ./webserver.js
  • 1

OutOfMemory Killer

如果服务器本身内存不大,比如 8G,在不到 100 万连接的情况下,你的服务器进程有可能出现 “Killed” 的问题。 运行dmesg可以看到

Out of memory: Kill process 10375 (java) score 59 or sacrifice child
  • 1

这是 Linux 的 OOM Killer 主动杀死的。 开启 oom-killer 的话,在 / proc/pid 下对每个进程都会多出 3 个与 oom 打分调节相关的文件。临时对某个进程可以忽略 oom-killer 可以使用下面的方式:
echo -17 > /proc/$(pidof java)/oom_adj
解决办法有多种,可以参看文章最后的参考文章, 最好是换一个内存更大的机器。

二、客户端的参数调优

在一台系统上,连接到一个远程服务时的本地端口是有限的。根据 TCP/IP 协议,由于端口是 16 位整数,也就只能是 0 到 65535,而 0 到 1023 是预留端口,所以能分配的端口只是 1024 到 65534,也就是 64511 个。也就是说,一台机器一个 IP 只能创建六万多个长连接。

要想达到更多的客户端连接,可以用更多的机器或者网卡,也可以使用虚拟 IP 来实现, 比如下面的命令增加了 19 个 IP 地址,其中一个给服务器用,其它 18 个给 client, 这样
可以产生 18 * 60000 = 1080000 个连接。

ifconfig eth0:0 192.168.77.10 netmask 255.255.255.0 up

ifconfig eth0:1 192.168.77.11 netmask 255.255.255.0 up

ifconfig eth0:2 192.168.77.12 netmask 255.255.255.0 up

ifconfig eth0:3 192.168.77.13 netmask 255.255.255.0 up

ifconfig eth0:4 192.168.77.14 netmask 255.255.255.0 up

ifconfig eth0:5 192.168.77.15 netmask 255.255.255.0 up

ifconfig eth0:6 192.168.77.16 netmask 255.255.255.0 up

ifconfig eth0:7 192.168.77.17 netmask 255.255.255.0 up

ifconfig eth0:8 192.168.77.18 netmask 255.255.255.0 up

ifconfig eth0:9 192.168.77.19 netmask 255.255.255.0 up

ifconfig eth0:10 192.168.77.20 netmask 255.255.255.0 up

ifconfig eth0:11 192.168.77.21 netmask 255.255.255.0 up

ifconfig eth0:12 192.168.77.22 netmask 255.255.255.0 up

ifconfig eth0:13 192.168.77.23 netmask 255.255.255.0 up

ifconfig eth0:14 192.168.77.24 netmask 255.255.255.0 up

ifconfig eth0:15 192.168.77.25 netmask 255.255.255.0 up

ifconfig eth0:16 192.168.77.26 netmask 255.255.255.0 up

ifconfig eth0:17 192.168.77.27 netmask 255.255.255.0 up

ifconfig eth0:18 192.168.77.28 netmask 255.255.255.0 up
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15
  • 16
  • 17
  • 18
  • 19
  • 20
  • 21
  • 22
  • 23
  • 24
  • 25
  • 26
  • 27
  • 28
  • 29
  • 30
  • 31
  • 32
  • 33
  • 34
  • 35
  • 36
  • 37

修改/etc/sysctl.conf文件:

net.ipv4.ip_local_port_range = 1024 65535
  • 1

执行/sbin/sysctl -p即时生效。

三、服务器测试

实际测试中我使用一台 AWS C3.4xlarge (16 cores, 32G memory) 作为应用服务器,两台 AWS C3.2xlarge (8 cores, 16G memory) 服务器作为客户端。
这两台机器作为测试客户端绰绰有余,每台客户端机器创建了十个内网虚拟 IP, 每个 IP 创建 60000 个 websocket 连接。

客户端配置如下
/etc/sysctl.conf配置

fs.file-max = 2000000

fs.nr_open = 2000000

net.ipv4.ip_local_port_range = 1024 65535
  • 1
  • 2
  • 3
  • 4
  • 5

/etc/security/limits.conf配置

* soft    nofile      2000000

* hard    nofile      2000000

* soft nproc 2000000

* hard nproc 2000000
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7

服务端配置如下
/etc/sysctl.conf配置

fs.file-max = 2000000

fs.nr_open = 2000000

net.ipv4.ip_local_port_range = 1024 65535
  • 1
  • 2
  • 3
  • 4
  • 5

/etc/security/limits.conf配置

* soft    nofile      2000000

* hard    nofile      2000000

* soft nproc 2000000

* hard nproc 2000000
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7

Netty 服务器

  • 建立 120 万个连接,不发送消息,轻轻松松达到。内存还剩 14G 未用。
[roocolobu ~]# ss -s; free -m

Total: 1200231 (kernel 1200245)

TCP:   1200006 (estab 1200002, closed 0, orphaned 0, synrecv 0, timewait 0/0), ports 4

Transport Total     IP        IPv6

*         1200245   -         -        

RAW       0         0         0        

UDP       1         1         0        

TCP       1200006   1200006   0        

INET      1200007   1200007   0        

FRAG      0         0         0        

             total       used       free     shared    buffers     cached

Mem:         30074      15432      14641          0          9        254

-/+ buffers/cache:      15167      14906

Swap:          815          0        815
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15
  • 16
  • 17
  • 18
  • 19
  • 20
  • 21
  • 22
  • 23
  • 24
  • 25
  • 26
  • 27
  • 每分钟给所有的 120 万个 websocket 发送一条消息,消息内容为当前的服务器的时间。这里发送显示是单线程发送,服务器发送完 120 万个总用时 15 秒左右。
02:15:43.307 [pool-1-thread-1] INFO  com.colobu.webtest.netty.WebServer$ - send msg to channels for c4453a26-bca6-42b6-b29b-43653767f9fc

02:15:57.190 [pool-1-thread-1] INFO  com.colobu.webtest.netty.WebServer$ - sent 1200000 channels for c4453a26-bca6-42b6-b29b-43653767f9fc
  • 1
  • 2
  • 3

发送时 CPU 使用率并不高,网络带宽占用基本在 10M 左右。

----total-cpu-usage---- -dsk/total- -net/total- ---paging-- ---system--

usr sys idl wai hiq siq| read  writ| recv  send|  in   out | int   csw 

0   0 100   0   0   0|   0     0 |  60B  540B|   0     0 | 224   440 

0   0 100   0   0   0|   0     0 |  60B  870B|   0     0 | 192   382 

0   0 100   0   0   0|   0     0 |  59k   74k|   0     0 |2306  2166 

2   7  87   0   0   4|   0     0 |4998k 6134k|   0     0 | 169k  140k

1   7  87   0   0   5|   0     0 |4996k 6132k|   0     0 | 174k  140k

1   7  87   0   0   5|   0     0 |4972k 6102k|   0     0 | 176k  140k

1   7  87   0   0   5|   0     0 |5095k 6253k|   0     0 | 178k  142k

2   7  87   0   0   5|   0     0 |5238k 6428k|   0     0 | 179k  144k

1   7  87   0   0   5|   0    24k|4611k 5660k|   0     0 | 166k  129k

1   7  87   0   0   5|   0     0 |5083k 6238k|   0     0 | 175k  142k

1   7  87   0   0   5|   0     0 |5277k 6477k|   0     0 | 179k  146k

1   7  87   0   0   5|   0     0 |5297k 6500k|   0     0 | 179k  146k

1   7  87   0   0   5|   0     0 |5383k 6607k|   0     0 | 180k  148k

1   7  87   0   0   5|   0     0 |5504k 6756k|   0     0 | 184k  152k

1   7  87   0   0   5|   0    48k|5584k 6854k|   0     0 | 183k  152k

1   7  87   0   0   5|   0     0 |5585k 6855k|   0     0 | 183k  153k

1   7  87   0   0   5|   0     0 |5589k 6859k|   0     0 | 184k  153k

1   5  91   0   0   3|   0     0 |4073k 4999k|   0     0 | 135k  110k

0   0 100   0   0   0|   0    32k|  60B  390B|   0     0 |4822   424
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15
  • 16
  • 17
  • 18
  • 19
  • 20
  • 21
  • 22
  • 23
  • 24
  • 25
  • 26
  • 27
  • 28
  • 29
  • 30
  • 31
  • 32
  • 33
  • 34
  • 35
  • 36
  • 37
  • 38
  • 39
  • 40
  • 41

客户端 (一共 20 个,这里选取其中一个查看它的指标)。每个客户端保持 6 万个连接。每个消息从服务器发送到客户端接收到总用时平均 633 毫秒,而且标准差很小,每个连接用时差不多。

Active WebSockets for eb810c24-8565-43ea-bc27-9a0b2c910ca4

count = 60000

WebSocket Errors for eb810c24-8565-43ea-bc27-9a0b2c910ca4

count = 0

-- Histograms ------------------------------------------------------------------

Message latency for eb810c24-8565-43ea-bc27-9a0b2c910ca4

count = 693831

min = 627

max = 735

              mean = 633.06

            stddev = 9.61

            median = 631.00

75% <= 633.00

95% <= 640.00

98% <= 651.00

99% <= 670.00

99.9% <= 735.00

-- Meters ----------------------------------------------------------------------

Message Rate for eb810c24-8565-43ea-bc27-9a0b2c910ca4

count = 693832

         mean rate = 32991.37 events/minute

1-minute rate = 60309.26 events/minute

5-minute rate = 53523.45 events/minute

15-minute rate = 31926.26 events/minute
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15
  • 16
  • 17
  • 18
  • 19
  • 20
  • 21
  • 22
  • 23
  • 24
  • 25
  • 26
  • 27
  • 28
  • 29
  • 30
  • 31
  • 32
  • 33
  • 34
  • 35
  • 36
  • 37
  • 38
  • 39
  • 40
  • 41
  • 42
  • 43
  • 44
  • 45
  • 46
  • 47

平均每个 client 的 RPS = 1000, 总的 RPS 大约为 20000 requests /seconds.
latency 平均值为 633 ms,最长 735 ms,最短 627ms。

Spray 服务器

  • 建立 120 万个连接,不发送消息,轻轻松松达到。它的内存相对较高,内存还剩 7G。
[root@colobu ~]# ss -s; free -m

Total: 1200234 (kernel 1200251)

TCP:   1200006 (estab 1200002, closed 0, orphaned 0, synrecv 0, timewait 0/0), ports 4

Transport Total     IP        IPv6

*         1200251   -         -        

RAW       0         0         0        

UDP       1         1         0        

TCP       1200006   1200006   0        

INET      1200007   1200007   0        

FRAG      0         0         0        

             total       used       free     shared    buffers     cached

Mem:         30074      22371       7703          0         10        259

-/+ buffers/cache:      22100       7973

Swap:          815          0        815
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15
  • 16
  • 17
  • 18
  • 19
  • 20
  • 21
  • 22
  • 23
  • 24
  • 25
  • 26
  • 27
  • 每分钟给所有的 120 万个 websocket 发送一条消息,消息内容为当前的服务器的时间。
    CPU 使用较高,发送很快,带宽可以达到 46M。群发完一次大约需要 8 秒左右。
05/22 04:42:57.569 INFO [ool-2-worker-15] c.c.w.s.WebServer - send msg to workers 。for 8454e7d8-b8ca-4881-912b-6cdf3e6787bf

05/22 04:43:05.279 INFO [ool-2-worker-15] c.c.w.s.WebServer - sent msg to workers for 8454e7d8-b8ca-4881-912b-6cdf3e6787bf. current workers: 1200000
  • 1
  • 2
  • 3
----total-cpu-usage---- -dsk/total- -net/total- ---paging-- ---system--

usr sys idl wai hiq siq| read  writ| recv  send|  in   out | int   csw 

74   9  14   0   0   3|   0    24k|6330k   20M|   0     0 |  20k 1696 

70  23   0   0   0   6|   0    64k|  11M   58M|   0     0 |  18k 2526 

75  11   6   0   0   7|   0     0 |9362k   66M|   0     0 |  24k   11k

82   4   8   0   0   6|   0     0 |  11M   35M|   0     0 |  24k   10k

85   0  14   0   0   1|   0     0 |8334k   12M|   0     0 |  44k  415 

84   0  15   0   0   1|   0     0 |9109k   16M|   0     0 |  36k  425 

81   0  19   0   0   0|   0    24k| 919k  858k|   0     0 |  23k  629 

76   0  23   0   0   0|   0     0 | 151k  185k|   0     0 |  18k 1075
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15
  • 16
  • 17
  • 18
  • 19

客户端 (一共 20 个,这里选取其中一个查看它的指标)。每个客户端保持 6 万个连接。每个消息从服务器发送到客户端接收到总用时平均 1412 毫秒,而且标准差较大,每个连接用时差别较大。

Active WebSockets for 6674c9d8-24c6-4e77-9fc0-58afabe7436f

count = 60000

WebSocket Errors for 6674c9d8-24c6-4e77-9fc0-58afabe7436f

count = 0

-- Histograms ------------------------------------------------------------------

Message latency for 6674c9d8-24c6-4e77-9fc0-58afabe7436f

count = 454157

min = 716

max = 9297

mean = 1412.77

stddev = 1102.64

median = 991.00

75% <= 1449.00

95% <= 4136.00

98% <= 4951.00

99% <= 5308.00

99.9% <= 8854.00

-- Meters ----------------------------------------------------------------------

Message Rate for 6674c9d8-24c6-4e77-9fc0-58afabe7436f

count = 454244

         mean rate = 18821.51 events/minute

1-minute rate = 67705.18 events/minute

5-minute rate = 49917.79 events/minute

15-minute rate = 24355.57 events/minute
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15
  • 16
  • 17
  • 18
  • 19
  • 20
  • 21
  • 22
  • 23
  • 24
  • 25
  • 26
  • 27
  • 28
  • 29
  • 30
  • 31
  • 32
  • 33
  • 34
  • 35
  • 36
  • 37
  • 38
  • 39
  • 40
  • 41
  • 42
  • 43
  • 44
  • 45
  • 46
  • 47

Undertow

  • 建立 120 万个连接,不发送消息,轻轻松松达到。内存占用较少,还剩余 11G 内存。
[root@colobu ~]# ss -s; free -m

Total: 1200234 (kernel 1200240)

TCP:   1200006 (estab 1200002, closed 0, orphaned 0, synrecv 0, timewait 0/0), ports 4

Transport Total     IP        IPv6

*         1200240   -         -        

RAW       0         0         0        

UDP       1         1         0        

TCP       1200006   1200006   0        

INET      1200007   1200007   0        

FRAG      0         0         0        

             total       used       free     shared    buffers     cached

Mem:         30074      18497      11576          0         10        286

-/+ buffers/cache:      18200      11873

Swap:          815          0        815
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15
  • 16
  • 17
  • 18
  • 19
  • 20
  • 21
  • 22
  • 23
  • 24
  • 25
  • 26
  • 27
  • 每分钟给所有的 120 万个 websocket 发送一条消息,消息内容为当前的服务器的时间。
    群发玩一次大约需要 15 秒。
03:19:31.154 [pool-1-thread-1] INFO  c.colobu.webtest.undertow.WebServer$ - send msg to channels for d9b450da-2631-42bc-a802-44285f63a62d

03:19:46.755 [pool-1-thread-1] INFO  c.colobu.webtest.undertow.WebServer$ - sent 1200000 channels for d9b450da-2631-42bc-a802-44285f63a62d
  • 1
  • 2
  • 3

客户端 (一共 20 个,这里选取其中一个查看它的指标)。每个客户端保持 6 万个连接。每个消息从服务器发送到客户端接收到总用时平均 672 毫秒,而且标准差较小,每个连接用时差别不大。

Active WebSockets for b2e95e8d-b17a-4cfa-94d5-e70832034d4d

             count = 60000

WebSocket Errors for b2e95e8d-b17a-4cfa-94d5-e70832034d4d

             count = 0

-- Histograms ------------------------------------------------------------------

Message latency for b2e95e8d-b17a-4cfa-94d5-e70832034d4d

             count = 460800

               min = 667

               max = 781

              mean = 672.12

            stddev = 5.90

            median = 671.00





99.9

-- Meters ----------------------------------------------------------------------

Message Rate for b2e95e8d-b17a-4cfa-94d5-e70832034d4d

             count = 460813

         mean rate = 27065.85 events/minute

1-minute rate = 69271.67 events/minute

5-minute rate = 48641.78 events/minute

15-minute rate = 24128.67 events/minute

Setup Rate for b2e95e8d-b17a-4cfa-94d5-e70832034d4d
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15
  • 16
  • 17
  • 18
  • 19
  • 20
  • 21
  • 22
  • 23
  • 24
  • 25
  • 26
  • 27
  • 28
  • 29
  • 30
  • 31
  • 32
  • 33
  • 34
  • 35
  • 36
  • 37
  • 38
  • 39
  • 40
  • 41
  • 42
  • 43
  • 44
  • 45

node.js

node.js 不是我要考虑的框架,列在这里只是作为参考。性能也不错。

Active WebSockets for 537c7f0d-e58b-4996-b29e-098fe2682dcf

count = 60000

WebSocket Errors for 537c7f0d-e58b-4996-b29e-098fe2682dcf

count = 0

-- Histograms ------------------------------------------------------------------

Message latency for 537c7f0d-e58b-4996-b29e-098fe2682dcf

count = 180000

min = 808

max = 847

mean = 812.10

stddev = 1.95

median = 812.00

75% <= 812.00

95% <= 813.00

98% <= 814.00

99% <= 815.00

99.9% <= 847.00

-- Meters ----------------------------------------------------------------------

Message Rate for 537c7f0d-e58b-4996-b29e-098fe2682dcf

count = 180000

         mean rate = 7191.98 events/minute

1-minute rate = 10372.33 events/minute

5-minute rate = 16425.78 events/minute

15-minute rate = 9080.53 events/minute
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15
  • 16
  • 17
  • 18
  • 19
  • 20
  • 21
  • 22
  • 23
  • 24
  • 25
  • 26
  • 27
  • 28
  • 29
  • 30
  • 31
  • 32
  • 33
  • 34
  • 35
  • 36
  • 37
  • 38
  • 39
  • 40
  • 41
  • 42
  • 43
  • 44
  • 45
  • 46
  • 47

四、参考文档

  1. HTTP 长连接 200 万尝试及调优
  2. Linux 最大打开文件描述符数
  3. 100 万并发连接服务器笔记之 1M 并发连接目标达成
  4. 知乎:如何实现单服务器 300 万个长连接的?
  5. 构建 C1000K 的服务器
  6. 千万级并发实现的秘密
  7. C1000k 新思路:用户态 TCP/IP 协议栈
  8. https://github.com/xiaojiaqi/C1000kPracticeGuide
  9. 600k concurrent websocket connections on AWS using Node.js
  10. https://plumbr.eu/blog/memory-leaks/out-of-memory-kill-process-or-sacrifice-child?utm_source=feedly&utm_reader=feedly&utm_medium=rss&utm_campaign=rss
  11. http://it.deepinmind.com/java/2014/06/12/out-of-memory-kill-process-or-sacrifice-child.html
  12. https://access.redhat.com/documentation/en-US/Red_Hat_Enterprise_Linux/6/html/Performance_Tuning_Guide/s-memory-captun.html
  13. http://www.nateware.com/linux-network-tuning-for-2013.html#.VV0s6kawqgQ
  14. http://warmjade.blogspot.jp/2014_03_22_archive.html
  15. http://mp.weixin.qq.com/s?__biz=MjM5NzAwNDI4Mg==&mid=209282398&idx=1&sn=9ffef32b3ab93d1e239c9dc753a3a9bb
声明:本文内容由网友自发贡献,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:【wpsshop博客】
推荐阅读
相关标签
  

闽ICP备14008679号