当前位置: 首页 > news >正文

【Linux】多路转接epoll

一、I/O多路转接 poll

1.1 poll函数接口

函数原型

函数参数

  • fds:是一个poll函数监听的结构列表,每一个元素中包含了三部分内容:文件描述符,监听的事件集合,返回的事件集合。
  • nfds:表示的是fds数组的长度
  • timeout:表示poll函数的超时时间,单位是毫秒

函数功能

       poll函数用于检查或者等待事件的发生,并在事件发生时返回结果。他通常在系统编程和网络编程中使用,用于异步操作和事件通知。

函数返回值

  • 返回值小于0,表示出错
  • 返回值等于0,表示poll函数等待超时
  • 返回值大于0,表示poll由于监听的文件描述符就绪而返回

pollfd的结构

struct pollfd
{int fd;        // 文件描述符short events;  // 发起响应事件short revents; // 返回响应事件
}

1.2 poll的优点和缺点

1.2.1 poll的优点

       不同于select使用三个位图来表示三个fdset的方式,poll使用一个pollfd的指针实现。pollfd的结构包含了要监视的event和发生的event,不再使用select(参数-值)传递的方式,接口使用比select更方便,poll并没有最大数量的限制(但是数量过大后性能也是会下降的)

1.2.2 poll的缺点

       poll中监听的文件描述符数目增多时,和select函数一样,poll返回时,需要轮询pollfd来获取就绪的描述符,每次调用poll都需要把大量的pollfd结构从用户态拷贝到内核中。同时连接的大量客户端在一时刻可能只有很少的处于就绪状态,因此随着监视的描述符数量的增长,其效率也会线性下降。

二、多路转接之epoll(重要)

2.1 初始epoll

       我们来根据man手册的说法:是为处理大批量句柄而做了改进的poll。他是在2.5.44内核中被引进的,其几乎具备了之前所说的一切优点,被公认为Linux2,6下性能最好的多路I/O就绪的通知方法。

2.2 epoll的相关系统调用

2.2.1 epoll_create

函数原型

函数参数

  • 自从Linux2.6.8之后,size参数是被忽略的,只要大于0就行
  • 在用完这个函数之后,必须调用close()函数进行关闭

函数功能

       epoll_create是Linux中用来创建的一个epoll实例的系统调用,epoll是一种高效的I/O事件通知机制,特别适用于需要处理大量文件描述符的场景。epoll_create函数创建一个新的epoll实例,并返回一个文件描述符,该文件描述符用于与epoll实例进行交互。创建的epoll实例允许你注册感兴趣的事件,并在这些事件发生时通知你。

函数返回值

  • 成功时,返回一个非负整数,表示新的epoll实例的文件描述符
  • 失败时,返回-1并设置errno以表示错误原因

2.2.2 epoll_ctl

函数原型

函数参数

  • epfd:这个参数是epoll_create()的返回值(epoll的句柄)
  • op:表示动作,在下面会介绍三个宏
  • fd:表示需要监听的文件描述符
  • event:告诉内核需要监听什么事件

函数功能

       epoll_ctl允许你在一个epoll实例上管理文件描述符的事件监听。你可以使用它来注册(添加)。修改或者注销(删除)文件描述符的事件。

函数返回值

  • 成功时,返回0
  • 失败时,返回-1并设置errno以指示错误原因

第二个参数op的取值:

  • EPOLL_CTL_ADD:注册新的fd到epfd中
  • EPOLL_CTL_MOD:修改已经注册的fd的监听事件
  • EPOLL_CTL_DEL:从epfd中删除一个fd

struct epoll_event的结构如下:

events可以是一下几个宏的集合:

  • EPOLLIN:表示对应的文件描述符可以读(包括对端的socket正常关闭)
  • EPOLLOUT:表示对应的文件描述符可以写
  • EPOLLPRI:表示对应的文件描述符有紧急的数据可读(这里应该表示有带外数据到来)
  • EPOLLERR:表示对应的文件描述符发生错误
  • EPOLLHUP:表示对应的文件描述符被挂断
  • EPOLLET:将EPOLL设为边缘触发(Wdge Triggered)模式,这是相当于水平触发来说的
  • EPOLLONSHOT:只监听一次事件,当监听完这次事件之后,如果还需要继续监听这个socket的话,需要再次把这个socket加入到EPOLL队列中

2.2.3 epoll_wait

函数原型

函数参数

  • epfd:由epoll_create返回的epoll实例的文件描述符
  • events:指向epoll_event结构体数组的指针,用于存储发生的事件,数据的大小由maxevents参数指定的
  • maxevents:events数组的大小,即最多可以返回多少个事件
  • timeout:超时时间,单位是毫秒。如果设置为-1,epoll_wait会无限期的阻塞,直到由事件发生。如果设置为0,则epoll_wait会立即返回,不会阻塞。

函数功能

       epoll_wait函数是Linux中用于等待和获取epoll实例中发生的事件的系统调用,他会阻塞到有事件发生或者超时。这个系统调用通常与epoll_create.epoll_ctl一起使用,形成一个完整的I/O多路复用机制。

函数返回值

  • 成功时,返回实际发生的事件数目
  • 失败时,返回-1并设置errno以指示错误原因

收集在epoll监控的事件中已经发生的事件

  1. 参数events是分配好的epoll_event结构体数组
  2. epoll将会把发生的事件赋值到events数组中(events不可以是空指针,内核只负责把数据复制到这个events数组中,不会去帮助我们在用户态中分配内存)
  3. macevents告诉这个events有多大,这个maxevents的值不能大于创建epoll_create()时的size
  4. 参数timeout是超时时间(毫秒,0会立即返回,-1是永久阻塞)
  5. 如果函数调用成功,返回对应的I/O上已经准备好的文件描述符数目,如果返回0表示已经超时,返回小于0表示函数失败

2.3 epoll的工作原理

       当某一个进程调用epoll_create方法时,Linux内核会创建一个eventpoll结构体,这个结构体中有两个成员与epoll的使用方式密切相关。

struct eventpoll{..../*红黑树的根节点,这颗树中存储着所有添加到 epoll 中的需要监控的事件*/struct rb_root rbr;/*双链表中则存放着将要通过 epoll_wait 返回给用户的满足条件的事件*/struct list_head rdlist;....
};

       每一个epoll对象都有一个独立的eventpoll结构体,用于存放通过epoll_ctl方法向epoll对象中添加进来的事件

       这些事件都会挂载在红黑树中,如此,重复添加的事件就可以通过红黑树而高效的识别出来(红黑树的插入时间是lgn,其中n是树的高度)

       而所有添加到epoll中的事件都会与设备(网卡)驱动程序建立回调关系,也就是说,当响应的事件发生时会调用这个回调方法。

       这个回调方法在内核中叫做ep_poll_callback,他会将发生的事件添加到rdlist双链表中

       在epoll中,对于每一个事件都会建立一个epitem结构体

struct epitem{struct rb_node rbn;//红黑树节点struct list_head rdllink;//双向链表节点struct epoll_filefd ffd; //事件句柄信息struct eventpoll *ep; //指向其所属的 eventpoll 对象struct epoll_event event; //期待发生的事件类型
}

       当调用epoll_wait检查是否有事件发生时,只需要检查eventpoll对象中的rdlist双链表中是否有epitem元素即可

       如果rdlist不为空,则把发生的事件复制到用户态,同时将事件数量返回给用户,这个操作时间复杂度为O(1)

总结一下:epoll的使用过程就是三部曲:

  1. 调用epoll_create创建一个epoll句柄
  2. 调用epoll_ctl,将要监控的文件描述符进行注册
  3. 调用epoll_wait,等待文件描述符就绪

2.4 epoll的优点(与select的缺点对应)

  • 接口使用方便:虽然拆分成了三个函数,但是反而使用起来更加方便高效,不需要每次循环都设置关注的文件描述符,也做到了输入和输出参数分离开
  • 数据拷贝轻量:只在合适的时候调用EPOLL_CTL_ADD将文件描述符结构拷贝到内核中,这个操作并不频繁(但是select、poll都是每次循环都要进行拷贝)
  • 事件回调机制:避免使用遍历,而是使用回调函数的方式,将就绪的文件描述符结构加入到就绪队列中,epoll_wait返回直接访问就绪队列就知道了哪些文件描述符就绪,这个操作时间复杂度为O(1),即使文件描述符数目很多,效率也不会受到影响。
  • 没有数量的限制:文件描述符数目没有上限

一定要注意:

网上有些博客中说,epoll中使用了内存映射机制

       内存映射机制:内核直接将就绪队列通过mmap 方式映射到用户态,避免了拷贝内存这样的额外性能开销

       这种说法是不准确的,我们定义的struct epoll_event是我们在用户空间中分配好的内存,势必还是需要将内核中的数据拷贝到这个用户空间的内存中的。

三、epoll的工作方式

       epoll有两种工作方式:水平触发(LT)和边缘触发(ET)

3.1 水平触发(LT)

       我们来举一个例子:我们已经把一个tcp socket添加到epoll描述符中,这时候socket的另一端被写入了2KB的数据,调用epoll_wait,并且他会返回,说明他已经准备好了读取操作,然后调用read,只读取了1KB的数据,然后继续调用epoll_wait函数。

  • epoll默认状态下就是LT工作模式,这也解释了为什么我们在编写完epoll服务器后,没有编写其处理函数,当我们连接完毕后,服务器会一直循环,就是LT模式。
  • 当epoll检测到socket上的事件就绪的时候,可以不立刻进行处理,或者只处理一部分
  • 比如上面的例子中,由于只读了1K数据缓冲区中还剩下1K数据,在第二次调用epoll_wait时,epoll_wait仍然会立刻返回并通知socket读事件就绪
  • 直到缓冲区中所有的数据都被处理完毕,epoll_wait才不会立刻返回
  • 支持阻塞读写和非阻塞读写

3.2 边缘触发(ET)

       如果我们在第一步将socket添加到epoll描述符的时候使用了EPOLLET的标志,epoll进入了ET工作模式。

  • 当epoll检测到socket上事件就绪时,必须立刻处理
  • 比如上面的例子,虽然只读了1K的数据,缓冲区中还剩下1K的数据,在第二次调用epoll_wait的时候,epoll_wait就不会在返回了
  • 也就是说,ET模式下,文件描述符上的事件就绪后,只有一次处理机会
  • ET的性能比LT的性能要更高(epoll_wait返回的次数少了很多)Nginx默认采用ET模式使用epoll

select和poll其实也是工作在LT模式下,epoll即可以支持LT,也可以支持ET

3.3 LT和ET进行对比

       LT是epoll的默认行为,使用ET能够减少epoll触发的次数,但是代价就是强逼着程序员一次响应就将数据全部处理完毕

       相当于一个文件描述符就绪之后,不会反复被提示就绪,看起来就比LT更高效一些,但是子啊LT的情况下,如果也能做到每次就绪的文件描述符都立刻处理,不让这个就绪被重复提示的话,其实性能也是一样的

       另一方面,ET的代码复杂程度更高了

3.4 理解ET模式和非阻塞文件描述符

        使用ET模式下的epoll,需要将文件描述设置为非阻塞,这个不是接口上的要求,而是“工程实践”上的要求。假设这样的场景,服务器接收到一个10K的请求,会向客户端返回一个应答数据,如果客户端收不到应答,不会发送第二个10K请求。

       如果服务端写的代码是阻塞式的read,并且一次只read 1K数据的话(read不能保证一次就将所有的数据都读出来,参考man手册的说明,可能被信号打断)剩下的9K数据就会待在缓冲区中。

       此时由于epoll是ET模式,并不会认为文件描述符读就绪,epoll_wait就不会再次返回,剩下的9K数据会一直在缓冲区中,直到下一次客户端再次给服务器写数据,epoll_wait才能返回。

但是问题来了:

  • 服务器只读到了1K个数据,要10K读完才会给客户端返回响应数据
  • 客户端要读到服务器的响应,才会发送下一个请求
  • 客户端发送了下一个请求,epoll_wait才会返回,才能去读取缓冲区中剩余的数据

       所以,为了解决上述问题(阻塞read不一定能一下把完整的请求读完),于是就可以使用非阻塞轮询的方式来读缓冲区,保证一定能把完整的请求都读出来。而如果是LT没有这个问题,只要缓冲区中的数据没有读完,就能够让epoll_wait返回文件描述符读就绪。

四、epoll的使用场景

       epoll的高性能,是有一定的特定场景的,如果场景选择的不适宜,epoll的性能可能适得其反。对于多连接,并且多连接中只有一部分连接比较活跃时,比较适合使用epoll。

       例如, 典型的一个需要处理上万个客户端的服务器, 例如各种互联网 APP 的入口服务器, 这样的服务器就很适合 epoll. 如果只是系统内部, 服务器和服务器之间进行通信, 只有少数的几个连接, 这种情况下用 epoll 就并不合适. 具体要根据需求和场景特点来决定使用哪种 IO 模型。

五、epoll中的惊群问题

epoll的惊群效应_epoll惊群-CSDN博客


http://www.mrgr.cn/news/27800.html

相关文章:

  • 全面解读 USB Key:定义、使用场景、加密技术及 Java 实现
  • 释放 PWA 的力量:2024 年的现代Web应用|React + TypeScript 示例
  • Atlassian公司相关信息
  • 大模型时代,呼叫中心部门如何建设一套呼出机器人系统?
  • Redis HyperLogLog
  • yolo标签自动标注(使用python和yolo方法)
  • 【智路】智路OS air-edge 开发者手册 功能概述
  • 人脸防伪检测系统源码分享
  • USB组合设备——串口+鼠标+键盘
  • web安卓逆向之必学CSS基础知识
  • 笔试强训day13
  • CentO S入门必备基础知识
  • Linux07
  • 数据结构-树(基础,分类,遍历)
  • 【STM32】DAC数字模拟转换
  • Oracle从入门到放弃
  • Spring Boot集成Akka Cluster快速入门Demo
  • C语言指针和数组梳理
  • 基于双向RRT算法的三维空间最优路线规划matlab仿真
  • 北极星计划的回响:从Leap Motion到Midjourney的AI 3D硬件梦想
  • 数据库DDL语句
  • 讨论人机交互研究中大语言模型的整合与伦理问题
  • 算子加速(3):自定义cuda扩展
  • 新160个crackme - 057-bbbs-crackme04
  • 6. Transforms的使用(一)--ToTensor()
  • 长业务事务的离线并发问题