写在前面
转载自: Anker—工作学习笔记
参考文章: select、poll、epoll之间的区别总结[整理]
select,poll,epoll
都是IO
多路复用的机制。I/O
多路复用就通过一种机制,可以监视多个描述符,一旦某个描述符就绪(一般是读就绪或者写就绪),能够通知程序进行相应的读写操作。但select,poll,epoll
本质上都是同步I/O
,因为他们都需要在读写事件就绪后自己负责进行读写,也就是说这个读写过程是阻塞的,而异步I/O
则无需自己负责进行读写,异步I/O
的实现会负责把数据从内核拷贝到用户空间。关于这三种IO
多路复用的用法,前面三篇总结写的很清楚,并用服务器回射echo
程序进行了测试。链接如下:
今天对这三种IO多路复用进行对比,参考网上和书上面的资料,整理如下:
1. select实现
select的调用过程如下所示:
[过程]
(1)使用copy_from_user
从用户空间拷贝fd_set
到内核空间
(2)注册回调函数__pollwait
(3)遍历所有fd
,调用其对应的poll
方法(对于socket
,这个poll
方法是sock_poll
,sock_poll
根据情况会调用到tcp_poll,udp_poll
或者datagram_poll
)
(4)以tcp_poll
为例,其核心实现就是__pollwait
,也就是上面注册的回调函数。
(5)__pollwait
的主要工作就是把current
(当前进程)挂到设备的等待队列中,不同的设备有不同的等待队列,对于tcp_poll
来说,其等待队列是sk->sk_sleep
(注意把进程挂到等待队列中并不代表进程已经睡眠了)。在设备收到一条消息(网络设备)或填写完文件数据(磁盘设备)后,会唤醒设备等待队列上睡眠的进程,这时current
便被唤醒了。
(6)poll
方法返回时会返回一个描述读写操作是否就绪的mask
掩码,根据这个mask
掩码给fd_set
赋值。
(7)如果遍历完所有的fd
,还没有返回一个可读写的mask
掩码,则会调用schedule_timeout
是调用select
的进程(也就是current
)进入睡眠。当设备驱动发生自身资源可读写后,会唤醒其等待队列上睡眠的进程。如果超过一定的超时时间(schedule_timeout
指定),还是没人唤醒,则调用select
的进程会重新被唤醒获得CPU,进而重新遍历fd
,判断有没有就绪的fd
。
(8)把fd_set
从内核空间拷贝到用户空间。
总结:
select的几大缺点:
(1)每次调用select,都需要把fd集合从用户态拷贝到内核态,这个开销在fd很多时会很大
(2)同时每次调用select都需要在内核遍历传递进来的所有fd,这个开销在fd很多时也很大
(3)select支持的文件描述符数量太小了,默认是1024
2. poll实现
poll
的实现和select
非常相似,只是描述fd
集合的方式不同,poll
使用pollfd
结构而不是select
的fd_set
结构,其他的都差不多。
关于select和poll的实现分析,可以参考下面几篇博文:
http://blog.csdn.net/lizhiguo0532/article/details/6568964#comments
http://blog.csdn.net/lizhiguo0532/article/details/6568968
http://blog.csdn.net/lizhiguo0532/article/details/6568969
http://www.ibm.com/developerworks/cn/linux/l-cn-edntwk/index.html?ca=drs-
http://linux.chinaunix.net/techdoc/net/2009/05/03/1109887.shtml
3. epoll
epoll
既然是对select
和poll
的改进,就应该能避免上述的三个缺点。那epoll
都是怎么解决的呢?在此之前,我们先看一下epoll
和select
和poll
的调用接口上的不同,select
和poll
都只提供了一个函数——select
或者poll
函数。而epoll
提供了三个函数:epoll_create,epoll_ctl 和 epoll_wait
,epoll_create
是创建一个epoll句柄;epoll_ctl
是注册要监听的事件类型;epoll_wait
则是等待事件的产生。
对于第一个缺点,epoll
的解决方案在epoll_ct
l函数中:每次注册新的事件到epoll
句柄中时(在epoll_ctl
中指定EPOLL_CTL_ADD
),会把所有的fd
拷贝进内核,而不是在epoll_wait
的时候重复拷贝。epoll
保证了每个fd
在整个过程中只会拷贝一次。
对于第二个缺点,epoll
的解决方案不像select
或poll
一样每次都把current
轮流加入fd
对应的设备等待队列中,而只在epoll_ctl
时把current
挂一遍(这一遍必不可少)并为每个fd
指定一个回调函数,当设备就绪,唤醒等待队列上的等待者时,就会调用这个回调函数,而这个回调函数会把就绪的fd
加入一个就绪链表)。epoll_wait
的工作实际上就是在这个就绪链表中查看有没有就绪的fd
(利用schedule_timeout()
实现睡一会,判断一会的效果,和selec
t实现中的第7步是类似的)。
对于第三个缺点,epoll
没有这个限制,它所支持的FD
上限是最大可以打开文件的数目,这个数字一般远大于2048
,举个例子:在1GB内存的机器上大约是10万左右,具体数目可以cat /proc/sys/fs/file-max
察看,一般来说这个数目和系统内存关系很大。
总结:
(1)select,poll实现需要自己不断轮询所有fd集合,直到设备就绪,期间可能要睡眠和唤醒多次交替。而epoll其实也需要调用epoll_wait不断轮询就绪链表,期间也可能多次睡眠和唤醒交替,但是它是设备就绪时,调用回调函数,把就绪fd放入就绪链表中,并唤醒在epoll_wait中进入睡眠的进程。虽然都要睡眠和交替,但是select和poll在“醒着”的时候要遍历整个fd集合,而epoll在“醒着”的时候只要判断一下就绪链表是否为空就行了,这节省了大量的CPU时间。这就是回调机制带来的性能提升。
(2)select,poll每次调用都要把fd集合从用户态往内核态拷贝一次,并且要把current往设备等待队列中挂一次,而epoll只要一次拷贝,而且把current往等待队列上挂也只挂一次(在epoll_wait的开始,注意这里的等待队列并不是设备等待队列,只是一个epoll内部定义的等待队列)。这也能节省不少的开销。
参考资料:
http://www.cnblogs.com/apprentice89/archive/2013/05/09/3070051.html
http://www.linuxidc.com/Linux/2012-05/59873p3.htm
http://xingyunbaijunwei.blog.163.com/blog/static/76538067201241685556302/
http://blog.csdn.net/kkxgx/article/details/7717125
https://banu.com/blog/2/how-to-use-epoll-a-complete-example-in-c/epoll-example.c