探索Reactor网络模型在当今应用领域的革新

发布时间 2023-07-21 11:45:15作者: 华为云开发者联盟

本文分享自华为云社区《驾驭网络技术的未来:探索Reactor网络模型在当今应用领域的革新》,作者: Lion Long 。

本文介绍了Linux网络设计中的Reactor网络模型及其在实际应用中的重要性。Reactor模型是一种经典的事件驱动设计模式,广泛应用于构建高性能、可扩展的网络服务器。我们将探讨Reactor模型的基本原理和组成部分,并详细介绍了Reactors模型在Linux网络编程中的实现方式。

一、reactor网络模型编程介绍

reactor是将对IO的检测转换为对事件的处理,是一种异步事件机制。reactor会使用IO多路复用进行IO检测,IO多路复用器一般是:select、poll、epoll。

reactor大致逻辑:

(1)socket()创建一个套接字,listenfd;

(2)bind()、listen()配置listenfd,绑定和监听;

(3)listenfd注册读事件,交由epoll管理;

(4)读事件触发,回调accept;

(5)客户端连接clientfd组成读事件;

(6)相关事件调用相关回调函数

1.1、建立连接

接收客户端连接。

//...

int epfd=epoll_create(1);//创建epoll对象

//...

int listenfd=socket(AF_INET,SOCK_STREAM,0);//创建套接字

//...

struct epoll_event ev;

ev.events=EPOLLIN;

epoll_ctl(epfd,EPOLL_CTL_ADD,listenfd,&ev)//注册事件

//...

// 当触发listenfd的读事件,调用accept接收连接

struct sockaddr_in clientaddr;

socklen_t len=sizeof(clientaddr);

int clientfd=accept(listenfd,(struct sockaddr *)&clientaddr,&len);

struct epoll_event ev;

ev.events=EPOLLIN;

epoll_ctl(epfd,EPOLL_CTL_ADD,clientfd,&ev)//注册新连接的读事件

//...

连接第三方服务。

//...

int epfd=epoll_create(1);//创建epoll对象

//...

int fd=socket(AF_INET,SOCK_STREAM,0);//创建套接字

//...

struct sockaddr_in clientaddr;

socklen_t len=sizeof(clientaddr);

connect(fd,(struct sockaddr *)&clientaddr,&len);//连接服务

//...

struct epoll_event ev;

ev.events=EPOLLOUT;

epoll_ctl(epfd,EPOLL_CTL_ADD,fd,&ev)//注册事件

//...

// 当触发fd的写事件,连接建立成功

if(status==e_connecting && ev.events==EPOLLOUT)

{

status=e_connected;

epoll_ctl(epfd,EPOLL_CTL_DEL.fd,NULL);

}

//...

1.2、断开连接

//...

if(ev.events & EPOLLRDHUP)

{

// 关闭服务器读端

close_read(fd);

}

if(ev.events & EPOLLHUP)

{

// 关闭服务器读写端

close(fd);

}

//...

1.3、数据到达

// ...

if(ev.events & EPOLLIN)

{

while(1)

{

int n=recv(clientfd,buffer,buffer_size,0);

if(n<0)

{

if(errno==EINTR)

continue;

if(errno==EWOULDBLOCK)

break;

close(clientfd);

}

else if(n==0)

{

close_read();

}

else

{

// 处理业务

}

}

// ...

}

// ...

1.4、数据发送

// ...

if(ev.events & EPOLLOUT)

{

int n=send(clientfd,buffer,buffer_size,0);

if(n<0)

{

if(errno==EINTR)

continue;

if(errno==EWOULDBLOACK)

{

struct epoll_event e;

e.events=EPOLLOUT;

epoll_ctl(epfd,EPOLL_CTL_ADD,clientfd,&e)//注册事件

return;

// break;

}

close(clientfd);

}

else if(n==buffer_size)

{

epoll_ctl(epfd,EPOLL_CTL_DEL,clientfd,NULL);

// epoll_ctl(epfd,EPOLL_CTL_MOD,clientfd,&e);

}

// ...

}

//...

1.5、reactor常见疑问

1、epoll惊群

何为”惊群“?网络编程经常使用多线程、多进程模型,每个线程或进程中都有一个epoll对象,通过socket()、bind()、listen()生成的listenfd可能会给多个epoll对象管理,当一个accept到来时所有的epoll都收到通知,所有进程或线程同时响应这一事件,然而最终只有一个accept成功。这就是”惊群“。

2、水平触发和边沿触发

水平触发:当读缓冲区中有数据时,一直触发,直到数据被读完。

边沿触发:来一次事件触发一次。读写操作一般需要配合循环才能全部读写完成。

3、reactor为什么要搭配非阻塞IO?

主要是三方面原因:

(1)多线程环境下,一个listenfd会被多个epoll(IO多路复用器)对象管理,当一个连接到来时所有的epoll都收到通知,所有的epoll都会去响应,但最终只有一个accept成功;如果使用阻塞,那么其他的epoll将一直被阻塞着。所以最好使用非阻塞IO及时返回。

(2)边沿触发下,事件触发才会读事件,那么需要在一次事件循环中把缓冲区读空;如果使用阻塞模式,那么当读缓冲区的数据被读完后,就会一直阻塞住无法返回。

(3)select bug。当某个socket接收缓冲区有新数据分节到达,然后select报告这个socket描述符可读,但随后,协议栈检查到这个新分节检验和错误,然后丢弃了这个分节,这时调用recv/read则无数据可读;如果socket没有设置成nonblocking,此recv/read将阻塞当前线程。

4、IO多路复用一定要搭配非阻塞IO吗?

不是,也可以使用阻塞模式。比如MySQL使用select接收连接,然后一个连接使用一个线程进行处理;也可以使用一个系统调用先获取读缓冲区的字节数,然后读一次就把数据读完,但是这样就导致效率比较低。

int n=EVBUFFER_MAX_READ_DEFAULT;

ioctl(fd,FIONREAD,&n);//获取读缓冲区的数据字节数

二、reactor应用场景

使用单个reactor的场景和使用多个reactor的场景。使用多个reactor又有多线程和多进程的不同用法。

2.1、redis——使用单reactor

redis是一种key-value结构、有丰富的数据结构、对内存进行操作的网络数据库组件。redis的命令处理是单线程的。

2.1.1、redis为什么使用单reactor?

要理解redis为什么只使用单个reactor,需要明白redis的命令处理是单线程的。

redis提供丰富的数据结构,对这些数据结构进行加锁非常复杂,所以redis使用单线程进行处理;因为使用单线程进行命令处理,核心业务逻辑是单线程,那么使用再多的reactor是无法处理过来的;所以,redis使用单个reactor。

另外,redis操作具体命令的时间复杂度比较低,更加没有必要使用多个reactor。

2.1.2、redis处理reactor框图

cke_140.png

2.1.3、redis对reactor的优化

对业务逻辑进行了优化,引入IO线程:

接收完数据后,将数据抛到IO线程进行处理;发送数据之前,将打包数据放在IO线程进行处理,再发送出去。参考上图,就是将(read+decode)放到线程中处理,将(encode+write)放在线程中处理。

原因:

对于单线程而言,当接收的数据或发送的数据过大时,会造成线程负载过大,需要引用多线程做IO数据处理。特别是解协议过程,数据庞大而且耗时,需要开一个IO线程进行处理。

场景例子:

客户端上传日志记录;客户端获取排行榜记录。

2.1.4、从reactor角度看redis源码

创建一个epoll对象:

cke_141.png

创建套接字,绑定监听:

cke_142.png

listenfd放到epoll管理:

cke_143.png

监听事件:

cke_144.png

处理事件:

cke_145.png

为clientfd注册读事件:

cke_146.png

2.2、memcached——多线程方式使用多个reator

memcached是一种key-value结构、对内存进行操作的网络数据库组件。memcached的命令处理是多线程的。

memcached需要libevent,libevent就是一个事件驱动库,memcached对于网络上的使用都是基于libevent的。

2.2.1、memcached为什么使用多reactor?

memcached的key-value结构不像redis支持丰富的数据结构,它的value使用的数据结构相对简单,加锁也就相对容易。因此,可以引入多线程,提高效率。

2.2.2、memcached如何处理reactor?

memcached主线程会有一个reactor,主要负责接收连接;接收完连接后,经过负载均衡,通过pipe(管道)告诉子线程的reactor,将客户端的fd交由该线程的reactor管理;每个线程处理相对应的业务逻辑。

cke_147.png

2.2.3、从reactor角度看memcached源码

github上下载最新的memcached

开始源码分析:

创建套接字,绑定监听:

注册listenfd读事件:

分配clientfd到具体的线程中,添加读事件:

cke_2420.png

2.3、nginx——多进程方式使用多个reator

nginx可以反向代理,利用多进程处理业务。

master会创建listenfd,并bind和listen;fork出多个进程,每个进程都有一个自己的epoll对象,listenfd交由多个epoll对象管理。这时会有惊群现象,需要处理;通过负载均衡处理事件。

2.3.1、解决"惊群"问题

加锁方式。nginx会开辟一个共享内存,把锁放在共享内存当中,多个进程去争夺这把锁,争夺到锁的才能进行接受连接。

2.3.2、负载均衡

定义一个进程最大的连接数,当连接数量超过总连接数量的7/8时,该进程就会暂停接受连接,将机会留个其他进程。

这样不会让一个进程拥有过多的连接,而其他进程连接数量过少;从而使每个进程的连接数量相对平衡。

当所有的进程接受连接的数量都达到总连接数量的7/8时,这是nginx接受连接将变得很缓慢。

总结

在本文中深入探讨了Linux Reactor网络模型,并着重介绍了其在实际应用中的重要性和优势。Reactors模型是一种高效的网络设计模式,它在处理并发连接时表现出色,使得我们能够构建高性能、可伸缩的网络应用程序。

首先,了解了Reactors模型的基本原理。它采用事件驱动的方式,通过一个主循环监听输入事件,一旦有事件发生,就会调用相应的处理程序。这种非阻塞的设计使得服务器能够高效地处理大量并发连接,而无需为每个连接创建一个线程。

接着,探讨了Reactors模型在Linux网络设计中的实际应用。还深入剖析了事件处理和回调机制,帮助读者理解如何优化网络应用的设计。

相比传统的多线程或多进程模型,Reactors模型能够更好地利用系统资源,减少上下文切换和线程创建的开销,从而提高应用的并发处理能力。

本文旨在帮助读者全面了解Linux Reactor网络模型,并鼓励他们在自己的网络应用中运用这一模型,以构建出更高性能、更可靠的网络应用。掌握Reactors模型的知识,将使读者能够更加自信地驾驭网络技术的未来,迎接不断变化的挑战。

 

点击关注,第一时间了解华为云新鲜技术~