继续更新 "用 C 写一个 web 服务器" 项目(上期链接:),本次更新选择了 I/O 模型的优化,因为它是服务器的基础,这个先完成的话,后面的优化就可以选择各个模块来进行,不必进行全局化的改动了。
接触过 socket 编程的同学应该都知道一些 I/O 模型的概念,linux 中有阻塞 I/O、非阻塞 I/O、I/O 多路复用、信号驱动 I/O 和 异步 I/O 五种模型。
其他模型的具体概念这里不多介绍,只简单地提一下自己理解的 I/O 多路复用:简单的说就是由一个进程来管理多个 socket,即将多个 socket 放入一个表中,在其中有 socket 可操作时,通知进程来处理, I/O 多路复用的实现方式有 select、poll 和 epoll。
在 linux 下,通过文件描述符(file descriptor, 下 fd)来进行 socket 的操作,所以下文均是对 fd 操作。
首先说最开始实现的 select 的问题:
随着网络技术的发展,出现了 poll:poll 相对于 select,使用 pollfd 表(链表实现) 来代替 fd,它没有上限,但受系统内存的限制,它同样使用 fd 遍历的方式,在并发高时效率仍然是一个问题。
最终,epoll 在 Linux 2.6 的内核面世,它使用事件机制,在每一个 fd 上添加事件,当 fd 的事件被触发时,会调用回调函数来处理对应的事件,epoll 的优势总之如下:
为了一步到位,也是为了学习最先进的 I/O 多路复用模型,直接使用了 epoll 机制,接下来介绍一下 epoll 相关基础和自己服务器的实现过程。
epoll 需要引入
文件,首先介绍一下 epoll 系列函数:
- <sys/epoll.h>
- int epoll_create(int size);
创建一个 epoll 实例,返回一个指向此 epoll 实例的文件描述符,当 epoll 实例不再使用时,需要使用
方法来关闭它。
- close()
在最初的实现中,
作为期望打开的最大 fd 数传入,以便系统分配足够大的空间。在最新版本的内核中,系统内核动态分配内存,已不再需要此参数了,但为了避免程序运行在旧内核中会有问题,还是要求此值必须大于 0;
- size
- int epoll_ctl(int epfd, int op, int fd, struct epoll_event *event);
分别表示添加、修改和删除一个监听事件。
- EPOLL_CTL_ADD/EPOLL_CTL_MOD/EPOLL_CTL_DEL
- typedef union epoll_data {
- void * ptr;
- int fd;
- uint32_t u32;
- uint64_t u64;
- }
- epoll_data_t;
- struct epoll_event {
- uint32_t events;
- /* epoll事件 */
- epoll_data_t data;
- /* 事件相关数据 */
- };
监听 epoll 事件:
- int epoll_wait(int epfd, struct epoll_event *events, int maxevents, int timeout);
在 epoll_ctl 的 event 参数中,事件 events 有如下可选项:
EPOLLIN(可读)、EPOLLOUT(可写)、EPOLLRDHUP(连接关闭)、EPOLLPRI(紧急数据可读),此外 EPOLLERR(错误),EPOLLHUP(连接挂断)事件会被 epoll 默认一直监听。
除了设置事件外,还可以对监听的行为设置:
当监听事件和行为需求同时设置时,使用运算符
即可。
- |
使用 epoll 时的服务器受理客户端请求逻辑如下:
代码实现如下(详细处理方式见 GitHub:):
- erver_fd = server_start();
- epoll_fd = epoll_create(FD_SIZE);
- epoll_register(epoll_fd, server_fd, EPOLLIN|EPOLLET);// 这里注册socketEPOLL事件为ET模式
- while (1) {
- event_num = epoll_wait(epoll_fd, events, MAX_EVENTS, 0);
- for (i = 0; i < event_num; i++) {
- fd = events[i].data.fd;
- // 如果是服务器socket可读,则处理连接请求
- if ((fd == server_fd) && (events[i].events == EPOLLIN)){
- accept_client(server_fd, epoll_fd);
- // 如果是客户端socket可读,则获取请求信息,响应客户端
- } else if (events[i].events == EPOLLIN){
- deal_client(fd, epoll_fd);
- } else if (events[i].events == EPOLLOUT)
- // todo 数据过大,缓冲区不足的情况待处理
- continue;
- }
- }
需要注意的是,客户端 socket 在可读之后也是立刻可写的,我这里直接读取一次请求,然后将响应信息 write 进去,没有考虑读数据时缓冲区满的问题。
这里提出的解决方案为:
错误,这时将数据放入 buffer,暂时不响应。
- EAGIN
上文说过,ET 模式是 epoll 的高效模式,事件只会通知一次,但处理良好的情况下会更适用于高并发。它需要 socket 在非阻塞模式下才可用,这里我们实现它。
- sock_fd = socket(AF_INET, SOCK_STREAM, 0);
- // 获取服务器socket的设置,并添加"不阻塞"选项
- flags = fcntl(sock_fd, F_GETFL, 0);
- fcntl(sock_fd, F_SETFL, flags|O_NONBLOCK);
- .....
- // 这里注册服务器socket EPOLL事件为ET模式
- epoll_register(epoll_fd, server_fd, EPOLLIN|EPOLLET);
我将处理事件注掉后使用一次客户端连接请求进行了测试,很清晰地说明了 ET 模式下,事件只触发一次的现象,前后对比图如下:
Mac OS X 操作系统的某些部分是基于 FreeBSD 的,FreeBSD 不支持,MAC 也不支持(不过有相似的 kqueue),跑到开发机上开发的,作为一个最基础的 C learner, 靠着
和
- printf()
两个函数来调试的,不过搞了很久总算是完成了,有用 C 的前辈推荐一下调试方式就最好了。。
- fflush()
另外 epoll 在最新的内核中也更新了些内容,旧的很多博客都没有提到,话说照这样的发展速度,我这篇也会在一段时间后 "过时" 吧,哈哈~
如果您觉得本文对您有帮助,可以点击下面的 支持一下我。博客一直在更新,欢迎 。
参考:
(很不错的英文文档,推荐)
来源: http://www.cnblogs.com/zhenbianshu/p/6606953.html