TCP/IP网络编程 基于Linux编程_3 --优于select的epoll
2015-10-20 16:36
471 查看
前言:关于并发服务器中的I/O复用实现方式,前面我们讲过select的方式,但select的性能比较低,并不适合以Web服务器端开发为主流的现代开发环境。因此就有了Linux下的epoll,BSD的kqueue,Solaris的/dev/poll和Windows的IOCP等复用技术。本章就来讲讲Linux下的epoll技术。
1,调用select函数后常见的针对所有文件描述符的循环语句。它每次事件发生需要遍历所有文件描述符,找出发生变化的文件描述符。(以前写的示例没加循环)
2,每次调用select函数时都需要向该函数传递监视对象信息。即每次调用select函数时向操作系统传递监视对象信息,至于为什么要传?是因为我们监视的套接字变化的函数,而套接字是操作系统管理的。(这个才是最耗效率的)
注释:基于这样的原因并不是说select就没用了,在这样的情况下就适合选用select:1,服务端接入者少 2,程序应具有兼容性。
epoll是怎么优化select问题的:
1,每次发生事件它不需要循环遍历所有文件描述符,它把发生变化的文件描述符单独集中到了一起。
2,仅向操作系统传递1次监视对象信息,监视范围或内容发生变化时只通知发生变化的事项。
实现epoll时必要的函数和结构体
函数:
epoll_create:创建保存epoll文件描述符的空间,该函数也会返回文件描述符,所以终止时,也要调用close函数。(创建内存空间)
epoll_ctl:向空间注册,添加或修改文件描述符。(注册监听事件)
epoll_wait:与select函数类似,等待文件描述符发生变化。(监听事件回调)
结构体:
struct epoll_event
{
__uint32_t events;
epoll_data_t data;
}
typedef union epoll_data
{
void *ptr;
int fd;
__uinit32_t u32;
__uint64_t u64;
} epoll_data_t;
边缘触发相对条件触发的优点:可以分离接收数据和处理数据的时间点,从实现模型的角度看,边缘触发更有可能带来高性能。
将上面epoll实例改为边缘触发:
1,首先改写 event.events = EPOLLIN | EPOLLET; (EPOLLIN:读取数据事件 EPOLLET:边缘触发方式)
2,边缘触发只响应一次接收数据事件,所以要一次性全部读取输入缓冲中的数据,那么就需要判断什么时候数据读取完了?Linux声明了一个全局的变量:int errno; (error.h中),它能记录发生错误时提供额外的信息。这里就可以用它来判断是否读取完数据:
3,边缘触发方式下,以阻塞方式工作的read&write有可能会引起服务端的长时间停顿。所以边缘触发一定要采用非阻塞的套接字数据传输形式。那么怎么将套接字的read,write数据传输形式修改为非阻塞模式呢?
epoll理解及应用
基于select的I/O复用技术速度慢的原因:1,调用select函数后常见的针对所有文件描述符的循环语句。它每次事件发生需要遍历所有文件描述符,找出发生变化的文件描述符。(以前写的示例没加循环)
2,每次调用select函数时都需要向该函数传递监视对象信息。即每次调用select函数时向操作系统传递监视对象信息,至于为什么要传?是因为我们监视的套接字变化的函数,而套接字是操作系统管理的。(这个才是最耗效率的)
注释:基于这样的原因并不是说select就没用了,在这样的情况下就适合选用select:1,服务端接入者少 2,程序应具有兼容性。
epoll是怎么优化select问题的:
1,每次发生事件它不需要循环遍历所有文件描述符,它把发生变化的文件描述符单独集中到了一起。
2,仅向操作系统传递1次监视对象信息,监视范围或内容发生变化时只通知发生变化的事项。
实现epoll时必要的函数和结构体
函数:
epoll_create:创建保存epoll文件描述符的空间,该函数也会返回文件描述符,所以终止时,也要调用close函数。(创建内存空间)
epoll_ctl:向空间注册,添加或修改文件描述符。(注册监听事件)
epoll_wait:与select函数类似,等待文件描述符发生变化。(监听事件回调)
结构体:
struct epoll_event
{
__uint32_t events;
epoll_data_t data;
}
typedef union epoll_data
{
void *ptr;
int fd;
__uinit32_t u32;
__uint64_t u64;
} epoll_data_t;
基于epoll的回声服务器端
// // main.cpp // hello_server // // Created by app05 on 15-10-19. // Copyright (c) 2015年 app05. All rights reserved. // #include <stdio.h> #include <stdlib.h> #include <string.h> #include <unistd.h> #include <arpa/inet.h> #include <sys/socket.h> #include <sys/epoll.h> #define BUF_SIZE 100 #define EPOLL_SIZE 50 void error_handling(char *buf); int main(int argc, const char * argv[]) { int serv_sock, clnt_sock; struct sockaddr_in serv_adr, clnt_adr; socklen_t adr_sz; int str_len, i; char buf[BUF_SIZE]; //类似select的fd_set变量查看监视对象的状态变化,epoll_event结构体将发生变化的文件描述符单独集中到一起 struct epoll_event *ep_events; struct epoll_event event; int epfd, event_cnt; if(argc != 2) { printf("Usage: %s <port> \n", argv[0]); exit(1); } serv_sock = socket(PF_INET, SOCK_STREAM, 0); if(serv_sock == -1) error_handling("socket() error"); memset(&serv_adr, 0, sizeof(serv_adr)); serv_adr.sin_family = AF_INET; serv_adr.sin_addr.s_addr = htonl(INADDR_ANY); serv_adr.sin_port = htons(atoi(argv[1])); if(bind(serv_sock, (struct sockaddr *) &serv_adr, sizeof(serv_adr)) == -1) error_handling("bind() error"); if(listen(serv_sock, 5) == -1) error_handling("listen() error"); //创建文件描述符的保存空间称为“epoll例程” epfd = epoll_create(EPOLL_SIZE); ep_events = malloc(sizeof(struct epoll_event) *EPOLL_SIZE); //添加读取事件的监视(注册事件) event.events = EPOLLIN; //读取数据事件 event.data.fd = serv_sock; epoll_ctl(epdf, EPOLL_CTL_ADD, serv_sock, &event); while (1) { //响应事件,返回发生事件的文件描述符数 event_cnt = epoll_wait(epfd, ep_events, EPOLL_SIZE, -1); //传-1时,一直等待直到事件发生 if(event_cnt == -1) { puts("epoll_wait() error"); break; } //服务端套接字和客服端套接字 for (i = 0; i < event_cnt; i++) { if(ep_events[i].data.fd == serv_sock)//服务端与客服端建立连接 { adr_sz = sizeof(clnt_adr); clnt_sock = accept(serv_sock, (struct sockaddr *)&clnt_adr, &adr_sz); event.events = EPOLLIN; event.data.fd = clnt_sock; epoll_ctl(epfd, EPOLL_CTL_ADD, clnt_sock, &event); printf("connected client: %d \n", clnt_sock); } else //连接之后传递数据 { str_len = read(ep_events[i].data.fd, buf, BUF_SIZE); if(str_len == 0) { //删除事件 epoll_ctl(epfd, EPOLL_CTL_DEL, ep_events[i].data.fd, NULL); close(ep_events[i].data.fd); printf("closed client: %d \n", ep_events[i].data.fd); } else { write(ep_events[i].data.fd, buf, str_len); } } } } close(serv_sock); close(epfd); return 0; } void error_handling(char *message) { fputs(message, stderr); fputc('\n', stderr); exit(1); }
条件触发和边缘触发
什么是条件触发和边缘触发?它们是指事件响应的方式,epoll默认是条件触发的方式。条件触发是指:只要输入缓冲中有数据就会一直通知该事件,循环响应epoll_wait。而边缘触发是指:输入缓冲收到数据时仅注册1次该事件,即使输入缓冲中还留有数据,也不会再进行注册,只响应一次。边缘触发相对条件触发的优点:可以分离接收数据和处理数据的时间点,从实现模型的角度看,边缘触发更有可能带来高性能。
将上面epoll实例改为边缘触发:
1,首先改写 event.events = EPOLLIN | EPOLLET; (EPOLLIN:读取数据事件 EPOLLET:边缘触发方式)
2,边缘触发只响应一次接收数据事件,所以要一次性全部读取输入缓冲中的数据,那么就需要判断什么时候数据读取完了?Linux声明了一个全局的变量:int errno; (error.h中),它能记录发生错误时提供额外的信息。这里就可以用它来判断是否读取完数据:
str_len = read(...); if(str_len < 0) { if(errno == EAGAIN) //读取输入缓冲中的全部数据的标志 break; }
3,边缘触发方式下,以阻塞方式工作的read&write有可能会引起服务端的长时间停顿。所以边缘触发一定要采用非阻塞的套接字数据传输形式。那么怎么将套接字的read,write数据传输形式修改为非阻塞模式呢?
//fd套接字文件描述符,将此套接字数据传输模式修改为非阻塞 void setnonblockingmode(int fd) { int flag = fcntl(fd, F_GETFL,0); //得到套接字原来属性 fcntl(fd, F_SETFL, flag | O_NONBLOCK);//在原有属性基础上设置添加非阻塞模式 }
相关文章推荐
- TCP/IP网络编程 基于Linux编程_3 --优于select的epoll
- Linux 内核Tcp Socket参数调优
- iOS网络开发之NSURLSession学习<1>
- 跨集群 distcp命令
- VMware NAT Ubuntu 14.04 联网
- Ubuntu 系统用网线连上路由器上网配置
- Linux(Centos6.5)下安装svn服务器,并通过http访问
- Linux 常见网络参数整理
- 问题解决:部分海康网络摄像头无法实现视频流解码与实时预览
- HTTP协议中GET和POST
- HTTP访问控制(CORS)
- Linux TcpDump Wireshark文件导出
- HttpClient基本用法
- Linux服务器上监控网络带宽的18个常用命令
- Android中gravity与layout_gravity的区别 http://www.cnblogs.com/linjiqin/archive/2011/02/20/1959239.html
- tcp/ip 三次握手
- TCP/IP通信架构
- IOS 判断网络类型
- 【网络安全】移动安全软件合集
- 网络爬虫道魔的策略