用Mochiweb打造百万级Comet应用,第一部分
2008-11-27 10:50
197 查看
提示:如有转载请注明作者 独舞 及出处
原文:A Million-user Comet Application with Mochiweb, Part 1
参考资料:Comet--基于 HTTP 长连接、无须在浏览器端安装插件的“服务器推”技术为“Comet”
MochiWeb--建立轻量级HTTP服务器的Erlang库
在这个系列中,我将详述我所发现的mochiweb是怎样支持那么巨大的网络连接的,为大家展示怎样用mochiweb构建一个comet应用,这个应用
中每个mochiweb连接都被注册到负责为不同用户派送消息的路由器上。最后我们建立一个能够承受百万并发连接的可工作的应用,更重要的我们将知道这样
的应用需要多少内存才能使它跑起来。
本部分内容如下:
建立一个基本的comet应用, 它每10秒钟给客户端发送一条消息
调整linux内核参数,使它能够处理大量的TCP连接
写一个能够建立大量网络连接的压力测试工具 (也就是 C10k测试)
检查每个连接到底需要多少内存.
本系列续作将包括怎样建立一个真正的信息路由系统,降低内存使用的技巧,100K和1m并发连接的测试。
基础是你需要知道一些linux命令行操作和一点Erlang知识,否则看不懂别怪我呀,呵呵
安装编译Mochiweb
运行:
之后编辑
这部分代码(mochiconntest_web.erl)只是接收连接并且每十秒用块传输方式给客户端发送一个初始的欢迎信息。
mochiconntest_web.erl
-module
(
mochiconntest_web)
.
-export
(
[
start/1
, stop/0
, loop/2
]
)
.
%% 外部API
start(
Options
)
->
{
DocRoot
, Options1
}
= get_option(
docroot, Options
)
,
Loop
= fun (
Req
)
->
?MODULE
:loop
(
Req
, DocRoot
)
end
,
% 设置最大连接数为一百万,缺省2048
mochiweb_http:start
(
[
{
max, 1000000
}
, {
name, ?MODULE
}
, {
loop, Loop
}
| Options1
]
)
.
stop(
)
->
mochiweb_http
:stop
(
?MODULE
)
.
loop(
Req
, DocRoot
)
->
"/"
++ Path
= Req
:get
(
path)
,
case
Req
:get
(
method)
of
Method
when Method
=:= ‘GET’
; Method
=:= ‘HEAD’
->
case
Path
of
"test/"
++ Id
->
Response
= Req
:ok
(
{
"text/html; charset=utf-8"
,
[
{
"Server"
,"Mochiweb-Test"
}
]
,
chunked}
)
,
Response
:write_chunk
(
"Mochiconntest welcomes you! Your Id: "
++ Id
++ "/n
"
)
,
%% router:login(list_to_atom(Id), self()),
feed(
Response
, Id
, 1
)
;
_ ->
Req
:not_found
(
)
end
;
‘POST’
->
case
Path
of
_ ->
Req
:not_found
(
)
end
;
_ ->
Req
:respond
(
{
501
, [
]
, [
]
}
)
end
.
feed(
Response
, Path
, N
)
->
receive
%{router_msg, Msg} ->
% Html = io_lib:format("Recvd msg #~w: ‘~s’<br/>", [N, Msg]),
% Response:write_chunk(Html);
after
10000
->
Msg
= io_lib:format
(
"Chunk ~w for id ~s/n
"
, [
N
, Path
]
)
,
Response
:write_chunk
(
Msg
)
end
,
feed(
Response
, Path
, N
+1
)
.
%%内部API
get_option(
Option
, Options
)
->
{
proplists:get_value
(
Option
, Options
)
, proplists:delete
(
Option
, Options
)
}
.
缺省的Mochiweb在所有网卡接口的8000端口上进行监听,假如是在桌面系统上做这些事,你可以使用任何浏览器访问http://localhost:8000/test/foo
进行测试。
这里只是命令行测试:
是的,它可以工作。 现在,让我们使劲整它,呵呵。
信息(假如在伪造将得到,
)
下面的是我用到的sysctl设置 - 你的配置可能不一样,但是大致就是这些:
使其生效。不需要重启,现在你的内核能够处理大量的连接了,yay。
就十分好, 也有很多其他比较好的工具如ab, httperf, httpload等等可以生成大量的无用请求。
但是它们中任何一款都不适合测试comet应用, 正好我也想找个借口测试一下Erlang的http客户端,
因此我写了一个基本的测试程序用以发起大量的连接。
只是因为你可以但并不意味着你就这样做..
一个连接就用一个进程确实有点浪费。我用一个进程从文件中调入一批url链接,另一个进程建立连接并接收数据
(当定时器的进程每10秒打印一份报告)。所有从服务器接收来的数据都被丢弃,但是它增加计数,这样我们能够跟踪到底有多少http数据块被传输了。
floodtest.erl
-module
(
floodtest)
.
-export
(
[
start/2
, timer/2
, recv/1
]
)
.
start(
Filename
, Wait
)
->
inets
:start
(
)
,
spawn(
?MODULE
, timer, [
10000
, self(
)
]
)
,
This
= self(
)
,
spawn(
fun(
)
-> loadurls
(
Filename
, fun(
U
)
-> This
! {
loadurl, U
}
end
, Wait
)
end
)
,
recv(
{
0
,0
,0
}
)
.
recv(
Stats
)
->
{
Active
, Closed
, Chunks
}
= Stats
,
receive
{
stats}
-> io
:format
(
"Stats: ~w/n
"
,[
Stats
]
)
after
0
-> noop
end
,
receive
{
http,{
_Ref
,stream_start,_X
}
}
-> recv
(
{
Active
+1
,Closed
,Chunks
}
)
;
{
http,{
_Ref
,stream,_X
}
}
-> recv
(
{
Active
, Closed
, Chunks
+1
}
)
;
{
http,{
_Ref
,stream_end,_X
}
}
-> recv
(
{
Active
-1
, Closed
+1
, Chunks
}
)
;
{
http,{
_Ref
,{
error,Why
}
}
}
->
io
:format
(
"Closed: ~w/n
"
,[
Why
]
)
,
recv(
{
Active
-1
, Closed
+1
, Chunks
}
)
;
{
loadurl, Url
}
->
http
:request
(
get, {
Url
, [
]
}
, [
]
, [
{
sync, false}
, {
stream, self}
, {
version, 1.1
}
, {
body_format, binary}
]
)
,
recv(
Stats
)
end
.
timer(
T
, Who
)
->
receive
after
T
->
Who
! {
stats}
end
,
timer(
T
, Who
)
.
% Read lines from a file with a specified delay between lines:
for_each_line_in_file(
Name
, Proc
, Mode
, Accum0
)
->
{
ok, Device
}
= file:open
(
Name
, Mode
)
,
for_each_line(
Device
, Proc
, Accum0
)
.
for_each_line(
Device
, Proc
, Accum
)
->
case
io:get_line
(
Device
, ""
)
of
eof -> file
:close
(
Device
)
, Accum
;
Line
-> NewAccum
= Proc
(
Line
, Accum
)
,
for_each_line(
Device
, Proc
, NewAccum
)
end
.
loadurls(
Filename
, Callback
, Wait
)
->
for_each_line_in_file
(
Filename
,
fun(
Line
, List
)
->
Callback
(
string:strip
(
Line
, right, $/n)
)
,
receive
after
Wait
->
noop
end
,
List
end
,
[
read]
, [
]
)
.
每个连接我们都要用一个临时的端口,每个端口也是一个文件描述符, 缺省情况下这被限制为1024。为了避免
,可以通过修改
,但是这需要注销再登陆。目前你只需要用sudo修改当前shell就可以了(假如你不想运行在root状态下,调用ulimit后请su回非权限用户):
你也可以把临时端口的范围区间增到最大:
为压力测试程序生成一个url列表文件
现在在erlang提示符下你可以编译调用
了:
这将每秒钟建立十个连接 (也就是每个连接100毫秒).
它将以
,Active表示已建立连接数, Closed表示因每种原因被终止的连接数,Chunks是mochiweb以块传输模式处理的数据块数。 Closed应该为0,Chunks应该大于Active,因为每个活跃连接接收多个数据块 (10秒一个)。
10,000个活跃连接的mochiweb进程的固定大小是450MB-也就是每个连接45KB。
CPU占用率就好像预想中的一样微乎其微.
后续中,我将建立一个消息路由器 (我们可以把
25行和41-43行的注释取消
)也探讨一下减少内存用量的方法。我也会分享当100k和1M个连接时的测试结果。
原文:A Million-user Comet Application with Mochiweb, Part 1
参考资料:Comet--基于 HTTP 长连接、无须在浏览器端安装插件的“服务器推”技术为“Comet”
MochiWeb--建立轻量级HTTP服务器的Erlang库
在这个系列中,我将详述我所发现的mochiweb是怎样支持那么巨大的网络连接的,为大家展示怎样用mochiweb构建一个comet应用,这个应用
中每个mochiweb连接都被注册到负责为不同用户派送消息的路由器上。最后我们建立一个能够承受百万并发连接的可工作的应用,更重要的我们将知道这样
的应用需要多少内存才能使它跑起来。
本部分内容如下:
建立一个基本的comet应用, 它每10秒钟给客户端发送一条消息
调整linux内核参数,使它能够处理大量的TCP连接
写一个能够建立大量网络连接的压力测试工具 (也就是 C10k测试)
检查每个连接到底需要多少内存.
本系列续作将包括怎样建立一个真正的信息路由系统,降低内存使用的技巧,100K和1m并发连接的测试。
基础是你需要知道一些linux命令行操作和一点Erlang知识,否则看不懂别怪我呀,呵呵
写一个Mochiweb测试程序
概括如下:安装编译Mochiweb
运行:
/your-mochiweb-path/scripts/new_mochiweb.erl mochiconntest
cd mochiconntest
之后编辑
src/mochiconntest_web.erl
这部分代码(mochiconntest_web.erl)只是接收连接并且每十秒用块传输方式给客户端发送一个初始的欢迎信息。
mochiconntest_web.erl
-module
(
mochiconntest_web)
.
-export
(
[
start/1
, stop/0
, loop/2
]
)
.
%% 外部API
start(
Options
)
->
{
DocRoot
, Options1
}
= get_option(
docroot, Options
)
,
Loop
= fun (
Req
)
->
?MODULE
:loop
(
Req
, DocRoot
)
end
,
% 设置最大连接数为一百万,缺省2048
mochiweb_http:start
(
[
{
max, 1000000
}
, {
name, ?MODULE
}
, {
loop, Loop
}
| Options1
]
)
.
stop(
)
->
mochiweb_http
:stop
(
?MODULE
)
.
loop(
Req
, DocRoot
)
->
"/"
++ Path
= Req
:get
(
path)
,
case
Req
:get
(
method)
of
Method
when Method
=:= ‘GET’
; Method
=:= ‘HEAD’
->
case
Path
of
"test/"
++ Id
->
Response
= Req
:ok
(
{
"text/html; charset=utf-8"
,
[
{
"Server"
,"Mochiweb-Test"
}
]
,
chunked}
)
,
Response
:write_chunk
(
"Mochiconntest welcomes you! Your Id: "
++ Id
++ "/n
"
)
,
%% router:login(list_to_atom(Id), self()),
feed(
Response
, Id
, 1
)
;
_ ->
Req
:not_found
(
)
end
;
‘POST’
->
case
Path
of
_ ->
Req
:not_found
(
)
end
;
_ ->
Req
:respond
(
{
501
, [
]
, [
]
}
)
end
.
feed(
Response
, Path
, N
)
->
receive
%{router_msg, Msg} ->
% Html = io_lib:format("Recvd msg #~w: ‘~s’<br/>", [N, Msg]),
% Response:write_chunk(Html);
after
10000
->
Msg
= io_lib:format
(
"Chunk ~w for id ~s/n
"
, [
N
, Path
]
)
,
Response
:write_chunk
(
Msg
)
end
,
feed(
Response
, Path
, N
+1
)
.
%%内部API
get_option(
Option
, Options
)
->
{
proplists:get_value
(
Option
, Options
)
, proplists:delete
(
Option
, Options
)
}
.
启动Mochiweb应用
make && ./start-dev.sh
缺省的Mochiweb在所有网卡接口的8000端口上进行监听,假如是在桌面系统上做这些事,你可以使用任何浏览器访问http://localhost:8000/test/foo
进行测试。
这里只是命令行测试:
$ lynx --source "http://localhost:8000/test/foo" Mochiconntest welcomes you! Your Id: foo<br/> Chunk 1 for id foo<br/> Chunk 2 for id foo<br/> Chunk 3 for id foo<br/> ^C
是的,它可以工作。 现在,让我们使劲整它,呵呵。
调整linux内核参数,使它能够处理大量的TCP连接
为节省时间我们需要在进行大量并发连接测试之前调整内核的tcp设置参数,否则你的测试将会失败,你将看到大量的Out of socket memory
信息(假如在伪造将得到,
nf_conntrack: table full, dropping packet.
)
下面的是我用到的sysctl设置 - 你的配置可能不一样,但是大致就是这些:
# General gigabit tuning: net.core.rmem_max = 16777216 net.core.wmem_max = 16777216 net.ipv4.tcp_rmem = 4096 87380 16777216 net.ipv4.tcp_wmem = 4096 65536 16777216 net.ipv4.tcp_syncookies = 1 # this gives the kernel more memory for tcp # which you need with many (100k+) open socket connections net.ipv4.tcp_mem = 50576 64768 98152 net.core.netdev_max_backlog = 2500 # I was also masquerading the port comet was on, you might not need this net.ipv4.netfilter.ip_conntrack_max = 1048576
把这些写到
/etc/sysctl.conf中然后运行
sysctl -p
使其生效。不需要重启,现在你的内核能够处理大量的连接了,yay。
建立大量连接
有很多方法可以用. Tsung就十分好, 也有很多其他比较好的工具如ab, httperf, httpload等等可以生成大量的无用请求。
但是它们中任何一款都不适合测试comet应用, 正好我也想找个借口测试一下Erlang的http客户端,
因此我写了一个基本的测试程序用以发起大量的连接。
只是因为你可以但并不意味着你就这样做..
一个连接就用一个进程确实有点浪费。我用一个进程从文件中调入一批url链接,另一个进程建立连接并接收数据
(当定时器的进程每10秒打印一份报告)。所有从服务器接收来的数据都被丢弃,但是它增加计数,这样我们能够跟踪到底有多少http数据块被传输了。
floodtest.erl
-module
(
floodtest)
.
-export
(
[
start/2
, timer/2
, recv/1
]
)
.
start(
Filename
, Wait
)
->
inets
:start
(
)
,
spawn(
?MODULE
, timer, [
10000
, self(
)
]
)
,
This
= self(
)
,
spawn(
fun(
)
-> loadurls
(
Filename
, fun(
U
)
-> This
! {
loadurl, U
}
end
, Wait
)
end
)
,
recv(
{
0
,0
,0
}
)
.
recv(
Stats
)
->
{
Active
, Closed
, Chunks
}
= Stats
,
receive
{
stats}
-> io
:format
(
"Stats: ~w/n
"
,[
Stats
]
)
after
0
-> noop
end
,
receive
{
http,{
_Ref
,stream_start,_X
}
}
-> recv
(
{
Active
+1
,Closed
,Chunks
}
)
;
{
http,{
_Ref
,stream,_X
}
}
-> recv
(
{
Active
, Closed
, Chunks
+1
}
)
;
{
http,{
_Ref
,stream_end,_X
}
}
-> recv
(
{
Active
-1
, Closed
+1
, Chunks
}
)
;
{
http,{
_Ref
,{
error,Why
}
}
}
->
io
:format
(
"Closed: ~w/n
"
,[
Why
]
)
,
recv(
{
Active
-1
, Closed
+1
, Chunks
}
)
;
{
loadurl, Url
}
->
http
:request
(
get, {
Url
, [
]
}
, [
]
, [
{
sync, false}
, {
stream, self}
, {
version, 1.1
}
, {
body_format, binary}
]
)
,
recv(
Stats
)
end
.
timer(
T
, Who
)
->
receive
after
T
->
Who
! {
stats}
end
,
timer(
T
, Who
)
.
% Read lines from a file with a specified delay between lines:
for_each_line_in_file(
Name
, Proc
, Mode
, Accum0
)
->
{
ok, Device
}
= file:open
(
Name
, Mode
)
,
for_each_line(
Device
, Proc
, Accum0
)
.
for_each_line(
Device
, Proc
, Accum
)
->
case
io:get_line
(
Device
, ""
)
of
eof -> file
:close
(
Device
)
, Accum
;
Line
-> NewAccum
= Proc
(
Line
, Accum
)
,
for_each_line(
Device
, Proc
, NewAccum
)
end
.
loadurls(
Filename
, Callback
, Wait
)
->
for_each_line_in_file
(
Filename
,
fun(
Line
, List
)
->
Callback
(
string:strip
(
Line
, right, $/n)
)
,
receive
after
Wait
->
noop
end
,
List
end
,
[
read]
, [
]
)
.
每个连接我们都要用一个临时的端口,每个端口也是一个文件描述符, 缺省情况下这被限制为1024。为了避免
Too many open files问题出现,你需要为你当前shell更改这个限制
,可以通过修改
/etc/security/limits.conf
,但是这需要注销再登陆。目前你只需要用sudo修改当前shell就可以了(假如你不想运行在root状态下,调用ulimit后请su回非权限用户):
udo bash # ulimit -n 999999 # erl
你也可以把临时端口的范围区间增到最大:
# echo "1024 65535" > /proc/sys/net/ipv4/ip_local_port_range
为压力测试程序生成一个url列表文件
( for i in `seq 1 10000`; do echo "http://localhost:8000/test/$i" ; done ) > /tmp/mochi-urls.txt
现在在erlang提示符下你可以编译调用
floodtest.erl
了:
erl> c(floodtest). erl> floodtest:start("/tmp/mochi-urls.txt", 100).
这将每秒钟建立十个连接 (也就是每个连接100毫秒).
它将以
{Active, Closed, Chunks}的形式输出状态信息
,Active表示已建立连接数, Closed表示因每种原因被终止的连接数,Chunks是mochiweb以块传输模式处理的数据块数。 Closed应该为0,Chunks应该大于Active,因为每个活跃连接接收多个数据块 (10秒一个)。
10,000个活跃连接的mochiweb进程的固定大小是450MB-也就是每个连接45KB。
CPU占用率就好像预想中的一样微乎其微.
总结
第一次尝试是可以理解的。每个连接45KB内存看起来有些高 - 用libevent再做些调整我可以把它做到将近4.5KB每个连接 (只是猜猜, 谁有这方面的经验请留个回复). 如果就代码量和时间效率上对erlang和c做下考量,我想多花点内存还是有情可原的。后续中,我将建立一个消息路由器 (我们可以把
mochiconntest_web.erl中的
25行和41-43行的注释取消
)也探讨一下减少内存用量的方法。我也会分享当100k和1M个连接时的测试结果。
相关文章推荐
- 用Mochiweb打造百万级Comet应用,第一部分
- 用Mochiweb打造百万级Comet应用,第一部分
- 用Mochiweb打造百万级Comet应用(一)
- 用Mochiweb打造百万级Comet应用,第三部分(续2)
- 用Mochiweb打造百万级Comet应用(二)
- 用Mochiweb打造百万级Comet应用(3)
- [转]用Mochiweb打造百万级Comet应用,第三部分
- 用Mochiweb打造百万级Comet应用,第三部分 (待续)
- 用Mochiweb打造百万级Comet应用,第三部分(续)
- 用Mochiweb构建一个容纳百万级用户量的Comet应用程序(1)
- 用Mochiweb构建一个容纳百万级用户量的Comet应用程序(Part I)。
- 用Mochiweb构建一个容纳百万级用户量的Comet应用程序(2)
- 用Mochiweb构建一个容纳百万级用户量的Comet应用程序(Part 2)
- [译]使用Mochiweb构建百万级Comet程序,第一篇
- Cacti高级应用--打造自己的Cacti模板
- JCFXBL与WebView整合打造安卓应用服务平台
- 高性能Web应用打造攻略:扩展过程中20个最大的绊脚石
- 《移动Web前端高效开发实战》笔记4--打造单页应用SPA
- HTML5 离线应用之打造零请求、无流量网站的解决方法
- 使用.NET从零开始打造短信应用系统之七