您的位置:首页 > 其它

如何实现单服务器300万个长连接的?-来自知乎的经典问答

2016-05-03 17:09 513 查看
看到一篇文章说“最终我们采用了多消息循环、异步非阻塞的模型,在一台双核、24G内存的服务器上,实现峰值

维持超过300万个长连接。”
很疑惑,这是吹牛还是真的做到了?
什么是“多消息循环、异步非阻塞”?有什么特点?
用单台服务器实现高连接数,和使用多台服务器实现高连接数,哪种成本更高?修改

这……我能说也不怎么困难咩?实际在去年操作过一次,并且看过一篇文章(研究eurasia socket内存使用量的时

候翻到的最后会单独列出),我的成果是2G内存双核18W左右的并发连接。

1. 事件驱动,这个只是为了IO和CPU异步,让CPU从IO等待中解放出来,这样就能在CPU循环中往死里accept连接了

,nginx就靠这个把apache玩死的,nodejs的快不仅仅因为这个,语言层的magic就扯远了。

2. 利用双核,2个核就2个进程,一个进程一个事件驱动核(epoll,select啥的),增加链接吞吐。

3. 参数调优,这才是最重要的一步,一个Socket连接默认是有内存消耗的,我不记得Python的Socket占用是4M还

是多少来着了,当然这个也可以调优,eurasia的作者沈大侠说过可以搞到2M来着?当然这对于一个24G的服务器来

说300w还是搞不定的,但是就送TCP本身来分析的话,tcp_rmem/tcp_wmem,这2个系统tcp读写缓存默认都很高,拉

低到4k,然后把tcp_mem也得改下,这个说起来太麻烦,man一下就有了,总的来说就是得拉高High值

4. 网卡要给力,端口给足,句柄加高。

参考文献:100万并发连接服务器笔记之1M并发连接目标达成

从我的测试和此文的结论来看,他在7.5G左右实现了1M并发,24G到3M差不多,我那么挫的水平2G 18W,24G怎么说

也能上2M啊,而且如果仅仅是推送,业务层逻辑复杂度不强,等于就是个Proxy所以恩。

至于单台和多台之间的选择,追求技术的,单台你屌你牛逼,追求稳妥Crash也不会造成太大影响还想在推送一层

玩点花样用点动态语言的,多台不二选择。

不是吹牛,理论上完全可以达到。
(以下参考值皆是Linux平台上)

1,Linux单个进程可以维持的连接数(fd)理论值是通过ulimit -a设置,或在server内使用setrlimit()设置,具体

最大是多少?我看我的64机上是64bits的一个数值,所以,权且认为理论上是2^64-1。 anyway,几百万不是问题



2,TCP连接数。因为是Server端,不用向系统申请临时端口,只占fd资源。所以tcp连接数不受限制。

3,维持连接当然需要内存消耗,假如每个连接(fd),我们为其分配5k字节(应该足够了,就存放一些用户信息

之类的)。这样是5k*3000000=15G。 文中有24G内存,应该也足够了。

================================
下面我们说下文中提及的 多消息循环、异步非阻塞。
先说异步和非阻塞吧。权且认为这俩是一个概念。都是指的IO的异步和非阻塞。
1,异步+非阻塞的话,Linux上必然是epoll了。
原理上简而言之吧,异步就是基于事件的读写,epoll同时监听所有的tcp连接(fd),当有哪些连接上有了事件(

读、写、错误),就返回有事件的连接集合,然后处理这个集合里的需要处理的连接事件。这儿就是基于事件的异

步IO。
非阻塞。 在得到有事件的tcp连接集合之后,逐一进行读(写)。分开来说,需要读的fd,其实数据已经到OS的

tcp buffer里了,读完直接返回,CPU不等待。(返回EAGAIN,其实就进行了几次memcpy); 需要写的连接,同样

,其实是把数据写到了OS的tcp buffer里,写满为止。。不会等待对方发来ACK再返回。这样,其实这里CPU基本上

只进行了一些memcpy的操作。。即便同时几十万连接有事件,也是瞬间处理完的事。。。然后,CPU再进行异步io

等待(epoll_wait())。
当然这儿要充分利用多核,最好将io线程和work线程分开。

2,多消息循环。。这个应该是他们内部的概念。我个人猜测是异步的消息协议。
举例子,传统的TCP连接是一问一答,如HTTP。

如图,客户端在发送A和发送B之间,CPU就纯等待。服务器在回复A之后,也是纯等待B包的到来。。这样的话。TCP

吞吐量很低。

异步协议就是读写完全分开,无需等待(当然,在包内需要自行对应包的ID来识别对应请求包和回复包)。如图

这样的话,双方在任一时刻,都尽最大努力的发包。充分利用tcp连接。使单条TCP连接吞量直线上升。而且,如果

其中有一个包处理的极慢,丝豪不影响其他包的回包。

大体推算一下流量,因为300万的客户端均是手机客户端,,假如每个人每天平均收到500条push信息。300万

*500=1500000000, 1500000000 /一天86400=17361。一个封装的不错的server每秒进行2W次IO是很轻松的事。

最后说单台Hold大量和多台Hold小量的区别。
成本上肯定是多台的硬件本高了。。但是,这个量级,从架构上,绝对是多台更加合理。我们假如,每个连接有一

个用户认证的过程 ,用户认证时要去数据库(或其他类似db)查询用户信息,当你升级服务重启时,300万用户瞬

间断开,客户端会重连;再次启动之后,300万用户同时连接,同时请求库。。然后,杯具了。。。

刚好搜索长连接的时候看到这个问题,就来回答一下,算做是知乎的处女答。
首先理解多消息循环、异步非阻塞从程序设计角度来说是两个层次的东西。
1.多消息循环指的就是利用到epoll或者select来做的IO多路复用机制
2.异步非阻塞是指利用到下层的IO多路复用做的基于事件触发方式的一种设计方式

其实现在的异步模型大同小异,大致过程如下(分三层,一二层就是上面所说的两个层次):
1.(最重要的)维护一个事件反应堆,用epoll或者select或者kqueue来做,反应堆的作用就是用同步的方式处理

异步问题,在反应堆上注册好事件后如果相应的事件发生,就调用其回调函数,一般情况下反应堆是一个进程内全

局唯一的。
2.上层的buffer,维护一系列的buffer用于管理每一个连接的数据,可以把buffer看做是一个对象。一般在一个连

接到达的时候分配一个buffer对象,然后上层的连接注册事件的时候是注册到buffer上,buffer再注册到反应堆中


3.就是一个个的连接对象,把每一个来自外部的连接都抽象为一个具体的对象,用于管理每一个连接,其中这个对

象就包含了上面所说的buffer对象和其他一些状态。

处理并发的过程就是这样的:
1.为监听套接口在反应堆注册一个事件,此事件发生调用对应的回调,一般情况是accept这个连接,然后为这个连

接创建连接对象,统一管理。
2.为此连接创建buffer对象,并注册对应的读写错误事件的回调(上层对于buffer的读写事件回调都是业务层来控

制的了).
3.在加入监听队列后是离散的,准确来说epoll中是由一颗红黑树维护的,每一个事件的先后顺序跟它达到的顺序

有关。
4.维护了众多的连接对象,也就是这里的并发情况了,如果有事件发生会调用回调来处理,理论上无阻塞情况减少

了很多CPU的wait,这部分时间用于处理真正的业务,所以异步模型能够带来很高的CPU处理能力,减少等待,单位

时间处理的事件越多,从外部来看并发就很高,实际上也是一个串行的工作状态,但是串行过程没有等待。

若水、槐槐、管显笋 等人赞同
不说清楚具体每秒收发包数量以及包大小就是耍流氓!300万静态连接纯吃内存谁都搞得来,3000连接每秒10000请

求和300万连接每秒100请求你说谁消耗大?同样每秒100请求,每个请求广播给10个客户端和广播给100客户端你说

哪个消耗大?关键数据不说,还分析啥?

这个模型现在被 nginx/node.js 采用,建议你仔细研究一下相关文档、代码。
单机高连接数好与不好跟业务有一定的相关性,当然跟“钱”也有关系。

如果内存可以更多,还可以维持更多的连接数,无需吹牛。

2013年11月4日更新:
这两天发现还有不少朋友对这个话题有兴趣,再细说一点。
消息循环。前面提到过 nginx/node.js 都是采用的 IO 事件触发的消息循环,如果不了解可以直接看代码。
多消息循环。在多核 CPU 的服务器,是一个 IO 口上的事件用多个进程处理,充分利用多核的运算能力。每个进

程运行一下独立的消息循环,一般来说,进程数据与 CPU 核数相同。
异步非阻塞 就更容易理解了。CPU 不同步读写 IO,减少 CPU 等待时间。在业务层面的通讯也全部采用异步模型


正如我前面提到的,这些模型,在 nginx 上几乎都能找到代码。最近比较流行的 node.js 也有大量异步模型。

2014/06/19 更新:
最近我们用 Erlang 实现了了一个版本,维持长连接的效果也很好,开发时间成本低。

内存足够多,文件描述符限制足够大即可。不需要啥高端技术。

1. IO多路复用技术:使用一个线程来检查多个文件描述符的就绪状态
2.长连接
3.异步接收和发送:异步双工,就是开启两个线程分别处理读、写
4.参数调优(我还木有查到QAQ)
内容来自用户分享和网络整理,不保证内容的准确性,如有侵权内容,可联系管理员处理 点击这里给我发消息
标签:  服务器 文章 Socket