【IO】IO底层原理以及常见模型

发布时间 2023-04-26 08:42:35作者: 酷酷-

1  前言

从基础讲起,IO底层原理是隐藏在Java编程知识 之下的基础知识,是开发人员必须掌握的基本原理,可以说是基础的 基础,更是大公司面试通关的必备知识。本节从操作系统的底层原理入手,通过图文并茂的方式为大家深入剖析高并发IO的底层原理,并介绍如何通过设置来让操作系统支持高并发。

2  IO读写的基本原理

为了避免用户进程直接操作内核,保证内核安全,操作系统将内存(虚拟内存)划分为两部分:一部分是内核空间(Kernel-Space),另一部分是用户空间(User-Space)。在Linux系统中,内 核模块运行在内核空间,对应的进程处于内核态;用户程序运行在用 户空间,对应的进程处于用户态。

操作系统的核心是内核程序,它独立于普通的应用程序,既有权 限访问受保护的内核空间,也有权限访问硬件设备,而普通的应用程 序并没有这样的权限。内核空间总是驻留在内存中,是为操作系统的内核保留的。应用程序不允许直接在内核空间区域进行读写,也不允 许直接调用内核代码定义的函数。每个应用程序进程都有一个单独的 用户空间,对应的进程处于用户态,用户态进程不能访问内核空间中 的数据,也不能直接调用内核函数,因此需要将进程切换到内核态才 能进行系统调用。

内核态进程可以执行任意命令,调用系统的一切资源,而用户态 进程只能执行简单的运算,不能直接调用系统资源,那么问题来了: 用户态进程如何执行系统调用呢?答案是:用户态进程必须通过系统调用(System Call)向内核发出指令,完成调用系统资源之类的操作。

用户程序进行IO的读写依赖于底层的IO读写,基本上会用到底层 的read和write两大系统调用。虽然在不同的操作系统中read和write 两大系统调用的名称和形式可能不完全一样,但是它们的基本功能是 一样的。

操作系统层面的read系统调用并不是直接从物理设备把数据读取 到应用的内存中,write系统调用也不是直接把数据写入物理设备。上 层应用无论是调用操作系统的read还是调用操作系统的write,都会涉 及缓冲区。具体来说,上层应用通过操作系统的read系统调用把数据 从内核缓冲区复制到应用程序的进程缓冲区,通过操作系统的write系 统调用把数据从应用程序的进程缓冲区复制到操作系统的内核缓冲区。

简单来说,应用程序的IO操作实际上不是物理设备级别的读写, 而是缓存的复制。read和write两大系统调用都不负责数据在内核缓冲区和物理设备(如磁盘、网卡等)之间的交换。这个底层的读写交换 操作是由操作系统内核(Kernel)来完成的。所以,在应用程序中, 无论是对socket的IO操作还是对文件的IO操作,都属于上层应用的开 发,它们在输入(Input)和输出(Output)维度上的执行流程是类似 的,都是在内核缓冲区和进程缓冲区之间进行数据交换。

2.1  内核缓冲区与进程缓冲区

为什么设置那么多的缓冲区,导致读写过程那么麻烦呢?

缓冲区的目的是减少与设备之间的频繁物理交换。计算机的外部 物理设备与内存和CPU相比,有着非常大的差距,外部设备的直接读写 涉及操作系统的中断。发生系统中断时,需要保存之前的进程数据和 状态等信息,结束中断之后,还需要恢复之前的进程数据和状态等信 息。为了减少底层系统的频繁中断所导致的时间损耗、性能损耗,出现了内核缓冲区。

操作系统会对内核缓冲区进行监控,等待缓冲区达到一定数量的 时候,再进行IO设备的中断处理,集中执行物理设备的实际IO操作, 通过这种机制来提升系统的性能。至于具体什么时候执行系统中断 (包括读中断、写中断)则由操作系统的内核来决定,应用程序不需 要关心。

上层应用使用read系统调用时,仅仅把数据从内核缓冲区复制到 应用的缓冲区(进程缓冲区);上层应用使用write系统调用时,仅仅 把数据从应用的缓冲区复制到内核缓冲区。

内核缓冲区与应用缓冲区在数量上也不同。在Linux系统中,操作 系统内核只有一个内核缓冲区。每个用户程序(进程)都有自己独立 的缓冲区,叫作用户缓冲区或者进程缓冲区。在大多数情况下,Linux 系统中用户程序的IO读写程序并没有进行实际的IO操作,而是在用户 缓冲区和内核缓冲区之间直接进行数据的交换。

2.2  典型的系统调用流程

用户程序所使用的系统调用read和write并不是使数据在内核缓冲 区和物理设备之间交换:read调用把数据从内核缓冲区复制到应用的 用户缓冲区,write调用把数据从应用的用户缓冲区复制到内核缓冲 区。两个系统调用的大致流程如图所示。

 这里以read系统调用为例,看一下一个完整输入流程的两个阶段:

  • 应用程序等待数据准备好。
  • 从内核缓冲区向用户缓冲区复制数据。

如果是读取一个socket(套接字),那么以上两个阶段的具体处理流程如下:

  • 第一个阶段,应用程序等待数据通过网络到达网卡,当所等待 的分组到达时,数据被操作系统复制到内核缓冲区中。这个工作由操作系统自动完成,用户程序无感知。
  • 第二个阶段,内核将数据从内核缓冲区复制到应用的用户缓冲 区。

再具体一点,如果是在Java客户端和服务端之间完成一次socket 请求和响应(包括read和write)的数据交换,其完整的流程如下:

  • 客户端发送请求:Java客户端程序通过write系统调用将数据复制到内核缓冲区,Linux将内核缓冲区的请求数据通过客户端机器的网卡发送出去。在服务端,这份请求数据会从接收网卡中读取到服务端机器的内核缓冲区。
  • 服务端获取请求:Java服务端程序通过read系统调用从Linux内 核缓冲区读取数据,再送入Java进程缓冲区。
  • 服务端业务处理:Java服务器在自己的用户空间中完成客户端 的请求所对应的业务处理。
  • 服务端返回数据:Java服务器完成处理后,构建好的响应数据 将从用户缓冲区写入内核缓冲区,这里用到的是write系统调 用,操作系统会负责将内核缓冲区的数据发送出去。
  • 发送给客户端:服务端Linux系统将内核缓冲区中的数据写入网 卡,网卡通过底层的通信协议将数据发送给目标客户端。

由于生产环境的Java高并发应用基本都运行在Linux操作系统上, 因此以上案例中的操作系统以Linux作为实例。

3  四种主要的IO模型

服务端高并发IO编程往往要求的性能都非常高,一般情况下需要 选用高性能的IO模型。另外,对于Java工程师来说,有关IO模型的知 识也是通过大公司面试的必备知识。本章从最为基础的模型开始为大 家揭秘IO模型的核心原理。常见的IO模型有四种。

3.1  同步阻塞IO

首先,解释一下阻塞与非阻塞。阻塞IO指的是需要内核IO操作彻 底完成后才返回到用户空间执行用户程序的操作指令。“阻塞”指的 是用户程序(发起IO请求的进程或者线程)的执行状态。可以说传统 的IO模型都是阻塞IO模型,并且在Java中默认创建的socket都属于阻 塞IO模型。

其次,解释一下同步与异步。简单来说,可以将同步与异步看成 发起IO请求的两种方式。同步IO是指用户空间(进程或者线程)是主 动发起IO请求的一方,系统内核是被动接收方。异步IO则反过来,系 统内核是主动发起IO请求的一方,用户空间是被动接收方。

同步阻塞IO(Blocking IO)指的是用户空间(或者线程)主动发 起,需要等待内核IO操作彻底完成后才返回到用户空间的IO操作。在 IO操作过程中,发起IO请求的用户进程(或者线程)处于阻塞状态。

默认情况下,在Java应用程序进程中所有对socket连接进行的IO 操作都是同步阻塞IO。

在阻塞式IO模型中,从Java应用程序发起IO系统调用开始,一直 到系统调用返回,这段时间内发起IO请求的Java进程(或者线程)是 阻塞的。直到返回成功后,应用进程才能开始处理用户空间的缓冲区数据。

同步阻塞IO的具体流程如图所示。

举个例子,在Java中发起一个socket的read操作的系统调用,流程大致如下:

(1)从Java进行IO读后发起read系统调用开始,用户线程(或者 线程)就进入阻塞状态。

(2)当系统内核收到read系统调用后就开始准备数据。一开始, 数据可能还没有到达内核缓冲区(例如,还没有收到一个完整的 socket数据包),这时内核就要等待。

(3)内核一直等到完整的数据到达,就会将数据从内核缓冲区复 制到用户缓冲区(用户空间的内存),然后内核返回结果(例如返回 复制到用户缓冲区中的字节数)。

(4)直到内核返回后用户线程才会解除阻塞的状态,重新运行起 来。

阻塞IO的特点是在内核执行IO操作的两个阶段,发起IO请求的用 户进程(或者线程)被阻塞了。

阻塞IO的优点是:应用程序开发非常简单;在阻塞等待数据期 间,用户线程挂起,基本不会占用CPU资源。

阻塞IO的缺点是:一般情况下会为每个连接配备一个独立的线 程,一个线程维护一个连接的IO操作。在并发量小的情况下,这样做 没有什么问题。在高并发的应用场景下,阻塞IO模型需要大量的线程 来维护大量的网络连接,内存、线程切换开销会非常巨大,性能很 低,基本上是不可用的。

3.2  同步非阻塞IO

非阻塞IO(Non-Blocking IO,NIO)指的是用户空间的程序不需 要等待内核IO操作彻底完成,可以立即返回用户空间去执行后续的指 令,即发起IO请求的用户进程(或者线程)处于非阻塞状态,与此同 时,内核会立即返回给用户一个IO状态值。

阻塞和非阻塞的区别是什么呢?阻塞是指用户进程(或者线程) 一直在等待,而不能做别的事情;非阻塞是指用户进程(或者线程) 获得内核返回的状态值就返回自己的空间,可以去做别的事情。在 Java中,非阻塞IO的socket被设置为NONBLOCK模式。

同步非阻塞IO也可以简称为NIO,但是它不是Java编程中的 NIO。Java编程中的NIO(New IO)类库组件所归属的不是基础IO模 型中的NIO模型,而是IO多路复用模型。

同步非阻塞IO指的是用户进程主动发起,不需要等待内核IO操作 彻底完成就能立即返回用户空间的IO操作。在IO操作过程中,发起IO 请求的用户进程(或者线程)处于非阻塞状态。

在Linux系统下,socket连接默认是阻塞模式,可以将socket设置 成非阻塞模式。在NIO模型中,应用程序一旦开始IO系统调用,就会出现以下两种情况:

(1)在内核缓冲区中没有数据的情况下,系统调用会立即返回一 个调用失败的信息。

(2)在内核缓冲区中有数据的情况下,在数据的复制过程中系统 调用是阻塞的,直到完成数据从内核缓冲区复制到用户缓冲区。复制 完成后,系统调用返回成功,用户进程(或者线程)可以开始处理用 户空间的缓冲区数据。

同步非阻塞IO的流程如图所示。

举个例子,发起一个非阻塞socket的read操作的系统调用,流程 如下:

(1)在内核数据没有准备好的阶段,用户线程发起IO请求时立即 返回。所以,为了读取最终的数据,用户进程(或者线程)需要不断 地发起IO系统调用。

(2)内核数据到达后,用户进程(或者线程)发起系统调用,用 户进程(或者线程)阻塞。内核开始复制数据,它会将数据从内核缓 冲区复制到用户缓冲区,然后内核返回结果(例如返回复制到的用户 缓冲区的字节数)。

(3)用户进程(或者线程)读到数据后,才会解除阻塞状态,重 新运行起来。也就是说,用户空间需要经过多次尝试才能保证最终真正读到数据,而后继续执行。

同步非阻塞IO的特点是应用程序的线程需要不断地进行IO系统调 用,轮询数据是否已经准备好,如果没有准备好就继续轮询,直到完 成IO系统调用为止。

同步非阻塞IO的优点是每次发起的IO系统调用在内核等待数据过 程中可以立即返回,用户线程不会阻塞,实时性较好。

同步非阻塞IO的缺点是不断地轮询内核,这将占用大量的CPU时 间,效率低下。

总体来说,在高并发应用场景中,同步非阻塞IO是性能很低的, 也是基本不可用的,一般Web服务器都不使用这种IO模型。在Java的实 际开发中,不会涉及这种IO模型,但是此模型还是有价值的,其作用 在于其他IO模型中可以使用非阻塞IO模型作为基础,以实现其高性 能。

3.3  IO多路复用

为了提高性能,操作系统引入了一种新的系统调用,专门用于查 询IO文件描述符(含socket连接)的就绪状态。在Linux系统中,新的 系统调用为select/epoll系统调用。通过该系统调用,一个用户进程 (或者线程)可以监视多个文件描述符,一旦某个描述符就绪(一般是内核缓冲区可读/可写),内核就能够将文件描述符的就绪状态返回 给用户进程(或者线程),用户空间可以根据文件描述符的就绪状态 进行相应的IO系统调用。

IO多路复用(IO Multiplexing)属于一种经典的Reactor模式实 现,有时也称为异步阻塞IO,Java中的Selector属于这种模型。

如何避免同步非阻塞IO模型中轮询等待的问题呢?答案是采用IO 多路复用模型。

目前支持IO多路复用的系统调用有select、epoll等。几乎所有的 操作系统都支持select系统调用,它具有良好的跨平台特性。epoll是 在Linux 2.6内核中提出的,是select系统调用的Linux增强版本。

在IO多路复用模型中通过select/epoll系统调用,单个应用程序 的线程可以不断地轮询成百上千的socket连接的就绪状态,当某个或者某些socket网络连接有IO就绪状态时就返回这些就绪的状态(或者 说就绪事件)。

举个例子来说明IO多路复用模型的流程。发起一个多路复用IO的 read操作的系统调用,流程如下:

(1)选择器注册。首先,将需要read操作的目标文件描述符 (socket连接)提前注册到Linux的select/epoll选择器中,在Java中 所对应的选择器类是Selector类。然后,开启整个IO多路复用模型的 轮询流程。

(2)就绪状态的轮询。通过选择器的查询方法,查询所有提前注 册过的目标文件描述符(socket连接)的IO就绪状态。通过查询的系 统调用,内核会返回一个就绪的socket列表。当任何一个注册过的 socket中的数据准备好或者就绪了就说明内核缓冲区有数据了,内核 将该socket加入就绪的列表中,并且返回就绪事件。

(3)用户线程获得了就绪状态的列表后,根据其中的socket连接 发起read系统调用,用户线程阻塞。内核开始复制数据,将数据从内 核缓冲区复制到用户缓冲区。

(4)复制完成后,内核返回结果,用户线程才会解除阻塞的状 态,用户线程读取到了数据,继续执行。

在用户进程进行IO就绪事件的轮询时,需要调用选择器的 select查询方法,发起查询的用户进程或者线程是阻塞的。当然, 如果使用了查询方法的非阻塞的重载版本,发起查询的用户进程或 者线程也不会阻塞,重载版本会立即返回。

IO多路复用模型的read系统调用流程如图所示。

IO多路复用模型的特点是:IO多路复用模型的IO涉及两种系统调 用,一种是IO操作的系统调用,另一种是select/epoll就绪查询系统 调用。IO多路复用模型建立在操作系统的基础设施之上,即操作系统 的内核必须能够提供多路分离的系统调用select/epoll。

和NIO模型相似,多路复用IO也需要轮询。负责select/epoll状态 查询调用的线程,需要不断地进行select/epoll轮询,以找出达到IO操作就绪的socket连接。

IO多路复用模型与同步非阻塞IO模型是有密切关系的,具体来 说,注册在选择器上的每一个可以查询的socket连接一般都设置成同 步非阻塞模型,只是这一点对于用户程序而言是无感知的。

IO多路复用模型的优点是一个选择器查询线程可以同时处理成千 上万的网络连接,所以用户程序不必创建大量的线程,也不必维护这 些线程,从而大大减少了系统的开销。与一个线程维护一个连接的阻 塞IO模式相比,这一点是IO多路复用模型的最大优势。

通过JDK的源码可以看出,Java语言的NIO组件在Linux系统上是使 用epoll系统调用实现的。所以,Java语言的NIO组件所使用的就是IO 多路复用模型。

IO多路复用模型的缺点是,本质上select/epoll系统调用是阻塞 式的,属于同步IO,需要在读写事件就绪后由系统调用本身负责读 写,也就是说这个读写过程是阻塞的。要彻底地解除线程的阻塞,就 必须使用异步IO模型。

3.4  异步IO

异步IO(Asynchronous IO,AIO)指的是用户空间的线程变成被 动接收者,而内核空间成为主动调用者。在异步IO模型中,当用户线 程收到通知时,数据已经被内核读取完毕并放在了用户缓冲区内,内 核在IO完成后通知用户线程直接使用即可。

异步IO类似于Java中典型的回调模式,用户进程(或者线程)向 内核空间注册了各种IO事件的回调函数,由内核去主动调用。

异步IO模型的基本流程是:用户线程通过系统调用向内核注册某 个IO操作。内核在整个IO操作(包括数据准备、数据复制)完成后通 知用户程序,用户执行后续的业务操作。

在异步IO模型中,在整个内核的数据处理过程(包括内核将数据 从网络物理设备(网卡)读取到内核缓冲区、将内核缓冲区的数据复制到用户缓冲区)中,用户程序都不需要阻塞。

异步IO模型的流程如图所示。

举个例子,发起一个异步IO的read操作的系统调用,流程如下:

(1)当用户线程发起了read系统调用后,立刻就可以去做其他的 事,用户线程不阻塞。

(2)内核开始IO的第一个阶段:准备数据。准备好数据,内核就 会将数据从内核缓冲区复制到用户缓冲区。

(3)内核会给用户线程发送一个信号(Signal),或者回调用户 线程注册的回调方法,告诉用户线程read系统调用已经完成,数据已 经读入用户缓冲区。

(4)用户线程读取用户缓冲区的数据,完成后续的业务操作。

异步IO模型的特点是在内核等待数据和复制数据的两个阶段,用 户线程都不是阻塞的。用户线程需要接收内核的IO操作完成的事件, 或者用户线程需要注册一个IO操作完成的回调函数。正因为如此,异 步IO有的时候也被称为信号驱动IO。

异步IO模型的缺点是应用程序仅需要进行事件的注册与接收,其 余的工作都留给了操作系统,也就是说需要底层内核提供支持。

理论上来说,异步IO是真正的异步输入输出,它的吞吐量高于IO 多路复用模型的吞吐量。就目前而言,Windows系统下通过IOCP实现了 真正的异步IO。在Linux系统下,异步IO模型在2.6版本才引入,JDK对 它的支持目前并不完善,因此异步IO在性能上没有明显的优势。

大多数高并发服务端的程序都是基于Linux系统的。因而,目前这 类高并发网络应用程序的开发大多采用IO多路复用模型。大名鼎鼎的 Netty框架使用的就是IO多路复用模型,而不是异步IO模型。

4  通过合理配置来支持百万级并发连接

所聚焦的主题是高并发IO的底层原理。前面已经深入浅出地 介绍了高并发IO的模型,但是即使采用了最先进的模型,如果不进行 合理的操作系统配置,也没有办法支撑百万级的并发网络连接。在生 产环境中,大家都使用Linux系统,所以后续内容如果没有特别说明, 所指的操作系统都是Linux系统。

这里所涉及的配置就是Linux操作系统中文件句柄数的限制。在生 产环境Linux系统中,基本上都需要解除文件句柄数的限制。原因是 Linux系统的默认值为1024,也就是说,一个进程最多可以接受1024个 socket连接,这是远远不够的。

文件句柄也叫文件描述符。在Linux系统中,文件可分为普通文 件、目录文件、链接文件和设备文件。文件描述符(File-Descriptor)是内核为了高效管理已被打开的文件所创建的索引,是 一个非负整数(通常是小整数),用于指代被打开的文件。所有的IO 系统调用(包括socket的读写调用)都是通过文件描述符完成的。

在Linux下,通过调用ulimit命令可以看到一个进程能够打开的最 大文件句柄数量。这个命令的具体使用方法是:

ulimit -n

ulimit命令是用来显示和修改当前用户进程的基础限制命令,-n 选项用于引用或设置当前的文件句柄数量的限制值,Linux系统的默认 值为1024。

理论上,1024个文件描述符对绝大多数应用(例如Apache、桌面 应用程序)来说已经足够,对于一些用户基数很大的高并发应用则是 远远不够的。一个高并发的应用面临的并发连接数往往是十万级、百 万级、千万级,甚至像腾讯QQ一样的上亿级。

文件句柄数不够,会导致什么后果呢?当单个进程打开的文件句 柄数量超过了系统配置的上限值时会发出“Socket/File:Can't open so many files”的错误提示。

所以,对于高并发、高负载的应用,必须调整这个系统参数,以 适应并发处理大量连接的应用场景。可以通过ulimit来设置这两个参 数,方法如下:

ulimit -n 1000000

在上面的命令中,n的值设置越大,可以打开的文件句柄数量越 大。建议以root用户来执行此命令。

使用ulimit命令有一个缺陷,即该命令只能修改当前用户环境的 一些基础限制,仅在当前用户环境有效。也就是说,在当前的终端工 具连接当前shell期间,修改是有效的,一旦断开用户会话,或者说用 户退出Linux,它的数值就又变回系统默认的1024了。并且,系统重启 后,句柄数量会恢复为默认值。

ulimit命令只能用于临时修改,如果想永久地把最大文件描述符 数量值保存下来,可以编辑/etc/rc.local开机启动文件,在文件中添 加如下内容:

ulimit -SHn 1000000

以上示例增加了-S和-H两个命令选项。选项-S表示软性极限值,- H表示硬性极限值。硬性极限值是实际的限制,就是最大可以是100 万,不能再多了。软性极限值则是系统发出警告(Warning)的极限 值,超过这个极限值,内核会发出警告。

普通用户通过ulimit命令可将软性极限值更改到硬性极限值的最 大设置值。如果要更改硬性极限值,必须拥有root用户权限。

要彻底解除Linux系统的最大文件打开数量的限制,可以通过编辑 Linux的极限配置文件/etc/security/limits.conf来做到。修改此文 件,加入如下内容:

soft nofile 1000000
hard nofile 1000000

soft nofile表示软性极限,hard nofile表示硬性极限。

举个实际例子,在使用和安装目前非常流行的分布式搜索引擎 ElasticSearch时,必须修改这个文件,以增加最大的文件描述符的极 限值。当然,在生产环境运行Netty时,也需要修 改/etc/security/limits.conf文件来增加文件描述符数量的极限值。

5  小结

好啦,本节关于IO的基本原理以及四种模型,我们就看到这里哈,有理解不对的地方欢迎指正哈。