Binder系列-5-binder_mmap—1—mmap()分析

发布时间 2024-01-13 16:32:53作者: Hello-World3

一、man mmap

1. 函数声明

#include <sys/mman.h>
void *mmap(void *addr, size_t length, int prot, int flags, int fd, off_t offset);
int munmap(void *addr, size_t length);
int msync(void *addr, size_t length, int flags)

作用:将文件或设备向内存中进行映射或取消映射。

mmap() 在调用进程的虚拟地址空间中创建一个新的映射。新映射的起始地址在 addr 中指定。length 参数指定映射的长度(必须大于 0)。

如果 addr 为NULL,则内核选择创建映射的地址;这是创建新映射的最便携的方法。如果 addr 不为NULL,那么内核将其作为放置映射位置的提示;在 Linux 上,映射将在附近的页面边界处创建。新映射的地址作为调用结果return返回。

文件映射的内容(与匿名映射相反;请参阅下面的 MAP_ANONYMOUS)使用从文件描述符 fd 引用的文件(或其他对象)中的偏移量 offset 开始的 length 字节进行初始化。 offset 必须是 sysconf(_SC_PAGE_SIZE) 返回的页面大小的倍数。

prot 参数描述了映射所需的内存保护(并且不得与文件的打开模式冲突)。 它是 PROT_NONE 或以下一个或多个标志的按位或:

PROT_EXEC: 页面可以被执行。
PROT_READ: 页面可以被读取。
PROT_WRITE: 页面可以被写入。
PROT_NONE: 页面不能被访问。

flags 参数确定映射的更新对于映射同一区域的其他进程是否可见,以及更新是否传递到底层文件。 此行为是通过在标志中包含以下值之一来确定的:

MAP_SHARED: 共享此映射。映射的更新对于映射同一区域的其他进程是可见的,并且(在文件支持的映射的情况下)被传递到底层文件。(要精确控制何时对底层文件进行更新,需要使用 msync(2) )
MAP_PRIVATE: 创建私有写时复制映射。映射的更新对于映射同一文件的其他进程来说是不可见的,并且不会传递到底层文件。未指定 mmap() 调用后对文件所做的更改是否在映射区域中可见。

2. 返回值

成功时,mmap() 返回指向映射区域的指针。出错时,返回值 MAP_FAILED(即 (void *) -1),并设置 errno 以指示错误原因。
成功时,munmap() 返回 0。失败时,返回 -1,并设置 errno 来指示错误原因(可能为 EINVAL)。

3. 注意

mmap()映射区域大小必须是物理页大小(page_size)的整倍数(在Linux中内存页通常是4k)。

映射建立之后,即使文件关闭,映射依然存在。因为映射的是磁盘的地址,不是文件本身,和文件句柄无关。


二、mmap基础概念

mmap是一种内存映射文件的方法,即将一个文件或者其它对象映射到进程的地址空间,实现文件磁盘地址和进程虚拟地址空间中一段虚拟地址的一一对映关系。实现这样的映射关系后,进程就可以采用指针的方式读写操作这一段内存,而系统会自动回写脏页面到对应的文件磁盘上,即完成了对文件的操作而不必再调用read,write等系统调用函数。相反,内核空间对这段区域的修改也直接反映用户空间,从而可以实现不同进程间的文件共享。如下图所示:

由上图可以看出,进程的虚拟地址空间,由多个虚拟内存区域构成。虚拟内存区域是进程的虚拟地址空间中的一个同质区间,即具有同样特性的连续地址范围。上图中所示的text数据段、初始数据段、BSS数据段、堆、栈和内存映射,都是一个独立的虚拟内存区域。而为内存映射服务的地址空间处在堆栈之间的空余部分

linux内核使用 vm_area_struct 结构来表示一个独立的虚拟内存区域,由于每个不同质的虚拟内存区域功能和内部机制都不同,因此一个进程使用多个 vm_area_struct 结构来分别表示不同类型的虚拟内存区域。各个 vm_area_struct 结构使用链表或者树形结构链接,方便进程快速访问,如下图所示:

vm_area_struct 结构中包含区域起始和终止地址以及其他相关信息,同时也包含一个 vm_ops 指针,其内部可引出所有针对这个区域可以使用的系统调用函数。这样,进程对某一虚拟内存区域的任何操作需要用要的信息,都可以从 vm_area_struct 中获得。mmap()函数就是要创建一个新的 vm_area_struct 结构,并将其与文件的物理磁盘地址相连


三、mmap映射原理

mmap内存映射的实现过程,总的来说可以分为三个阶段:

1. 进程启动映射过程,并在虚拟地址空间中为映射创建虚拟映射区域。

(1) 进程在用户空间调用库函数mmap,原型:void *mmap(void *start, size_t length, int prot, int flags, int fd, off_t offset);
(2) 在当前进程的虚拟地址空间中,寻找一段空闲的满足要求的连续的虚拟地址。
(3) 为此虚拟区分配一个 vm_area_struct 结构,接着对这个结构的各个域进行了初始化。
(4) 将新建的虚拟区结构(vm_area_struct)插入进程的虚拟地址区域链表或树中。

2. 调用内核空间的系统调用函数mmap(不同于用户空间函数),实现文件物理地址和进程虚拟地址的一一映射关系

(5) 为映射分配了新的虚拟地址区域后,通过待映射的文件指针,在文件描述符表中找到对应的文件描述符,通过文件描述符,链接到内核"已打开文件集"中该文件的文件结构体(struct file),每个文件结构体维护着和这个已打开文件相关各项信息。
(6) 通过该文件的文件结构体,链接到 file_operations 模块,调用内核函数 mmap(),其原型为:int mmap(struct file *filp, struct vm_area_struct *vma),不同于用户空间库函数。
(7) 内核 mmap()函数通过虚拟文件系统 inode 模块定位到文件磁盘物理地址。
(8) 通过 remap_pfn_range() 函数建立页表,即实现了文件地址和虚拟地址区域的映射关系。此时,这片虚拟地址并没有任何数据关联到主存中。

注:前两个阶段仅在于创建虚拟区间并完成地址映射,但是并没有将任何文件数据的拷贝至主存。真正的文件读取是当进程发起读或写操作时。

3. 进程发起对这片映射空间的访问,引发缺页异常,实现文件内容到物理内存的拷贝

(9) 进程的读或写操作访问虚拟地址空间这一段映射地址,通过查询页表,发现这一段地址并不在物理页面上。因为目前只建立了地址映射,真正的硬盘数据还没有拷贝到内存中,因此引发缺页异常。
(10) 缺页异常进行一系列判断,确定无非法操作后,内核发起请求调页过程。
(11) 调页过程先在交换缓存空间(swap cache)中寻找需要访问的内存页,如果没有则调用 nopage(2.6内核之后死fault)函数把所缺的页从磁盘装入到主存中。
(12) 之后进程即可对这片主存进行读或者写的操作,如果写操作改变了其内容,一定时间后系统会自动回写脏页面到对应磁盘地址,也即完成了写入到文件的过程。

注:修改过的脏页面并不会立即更新回文件中,而是有一段时间的延迟,可以调用 msync() 来强制同步, 这样所写的内容就能立即保存到文件里了。


四、mmap和常规文件操作之区别

对linux文件系统不了解的请参阅博文《从内核文件系统看文件读写过程》,https://www.cnblogs.com/huxiao-tee/p/4657851.html ####### 先回顾一下常规文件系统操作(调用read/fread等类函数)中,函数的调用过程:

(1) 进程发起读文件请求。
(2) 内核通过查找进程文件符表,定位到内核已打开文件集上的文件信息,从而找到此文件的 inode。
(3) inode 在 address_space 上查找要请求的文件页是否已经缓存在页缓存中。如果存在,则直接返回这片文件页的内容。
(4) 如果不存在,则通过 inode 定位到文件磁盘地址,将数据从磁盘复制到页缓存。之后再次发起读页面过程,进而将页缓存中的数据发给用户进程。

总结来说,常规文件操作为了提高读写效率和保护磁盘,使用了页缓存机制。这样造成读文件时需要先将文件页从磁盘拷贝到页缓存中,由于页缓存处在内核空间,不能被用户进程直接寻址,所以还需要将页缓存中数据页再次拷贝到内存对应的用户空间中。这样,通过了两次数据拷贝过程,才能完成进程对文件内容的获取任务。写操作也是一样,待写入的buffer在内核空间不能直接访问,必须要先拷贝至内核空间对应的主存,再写回磁盘中(延迟写回),也是需要两次数据拷贝。

而使用mmap操作文件中,创建新的虚拟内存区域和建立文件磁盘地址和虚拟内存区域映射这两步,没有任何文件拷贝操作。而之后访问数据时发现内存中并无数据而发起的缺页异常过程,可以通过已经建立好的映射关系,只使用一次数据拷贝,就从磁盘中将数据传入内存的用户空间中,供进程使用。

总而言之,常规文件操作需要从磁盘到页缓存再到用户主存的两次数据拷贝。而mmap操控文件,只需要从磁盘到用户主存的一次数据拷贝过程。说白了,mmap的关键点是实现了用户空间和内核空间的数据直接交互而省去了空间不同数据不通的繁琐过程。因此mmap效率更高。


五、mmap优点总结

1. 对文件的读取操作跨过了页缓存,减少了数据的拷贝次数,用内存读写取代I/O读写,提高了文件读取效率。

2. 实现了用户空间和内核空间的高效交互方式。两空间的各自修改操作可以直接反映在映射的区域内,从而被对方空间及时捕捉。

3. 提供进程间共享内存及相互通信的方式。不管是父子进程还是无亲缘关系的进程,都可以将自身用户空间映射到同一个文件或匿名映射到同一片区域。从而通过各自对映射区域的改动,达到进程间通信和进程间共享的目的。同时,如果进程A和进程B都映射了区域C,当A第一次读取C时通过缺页从磁盘复制文件页到内存中;但当B再读C的相同页面时,虽然也会产生缺页异常,但是不再需要从磁盘中复制文件过来,而可直接使用已经保存在内存中的文件数据。

4. 可用于实现高效的大规模数据传输。内存空间不足,是制约大数据操作的一个方面,解决方案往往是借助硬盘空间协助操作,补充内存的不足。但是进一步会造成大量的文件I/O操作,极大影响效率。这个问题可以通过mmap映射很好的解决。换句话说,但凡是需要用磁盘空间代替内存的时候,mmap都可以发挥其功效。

 

六、mmap使用细节

1. 使用mmap需要注意的一个关键点是,mmap映射区域大小必须是物理页大小(page_size)的整倍数(32位系统中通常是4k字节)。原因是,内存的最小粒度是页,而进程虚拟地址空间和内存的映射也是以页为单位。为了匹配内存的操作,mmap从磁盘到虚拟地址空间的映射也必须是页。

2. 内核可以跟踪被内存映射的底层对象(文件)的大小,进程可以合法的访问在当前文件大小以内又在内存映射区以内的那些字节。也就是说,如果文件的大小一直在扩张,只要在映射区域范围内的数据,进程都可以合法得到,这和映射建立时文件的大小无关。具体情形参见“实验三”。

3. 映射建立之后,即使文件关闭,映射依然存在。因为映射的是磁盘的地址,不是文件本身,和文件句柄无关。同时可用于进程间通信的有效地址空间不完全受限于被映射文件的大小,因为是按页映射。

在上面的知识前提下,我们下面看看如果大小不是页的整倍数的具体情况:


七、mmap实验

1. 实验1:一个文件的大小是5000字节,mmap函数从一个文件的起始位置开始,映射5000字节到虚拟内存中。

分析:因为单位物理页面的大小是4096字节,虽然被映射的文件只有5000字节,但是对应到进程虚拟地址区域的大小需要满足整页大小,因此mmap函数执行后,实际映射到虚拟内存区域8192个 字节,5000~8191的字节部分用零填充。映射后的对应关系如下图所示:

此时:
(1) 读/写前5000个字节(0~4999),会返回操作文件内容。
(2) 读字节5000~8191时,结果全为0。写5000~8191时,进程不会报错,但是所写的内容不会写入原文件中 。
(3) 读/写8192以外的磁盘部分,会返回一个SIGSECV错误。

 

2. 实验2: 情形二:一个文件的大小是5000字节,mmap函数从一个文件的起始位置开始,映射15000字节到虚拟内存中,即映射大小超过了原始文件的大小。

分析:由于文件的大小是5000字节,和情形一一样,其对应的两个物理页。那么这两个物理页都是合法可以读写的,只是超出5000的部分不会体现在原文件中。由于程序要求映射15000字节,而文件只占两个物理页,因此8192字节~15000字节都不能读写,操作时会返回异常。如下图所示:

此时:
(1) 进程可以正常读/写被映射的前5000字节(0~4999),写操作的改动会在一定时间后反映在原文件中。
(2) 对于5000~8191字节,进程可以进行读写过程,不会报错。但是内容在写入前均为0,另外,写入后不会反映在文件中。
(3) 对于8192~14999字节,进程不能对其进行读写,会报SIGBUS错误。
(4) 对于15000以外的字节,进程不能对其读写,会引发SIGSEGV错误。

 

3. 实验3:一个文件初始大小为0,使用mmap操作映射了1000*4K的大小,即1000个物理页大约4M字节空间,mmap返回指针ptr。

分析:如果在映射建立之初,就对文件进行读写操作,由于文件大小为0,并没有合法的物理页对应,如同实验2一样,会返回SIGBUS错误。
但是如果,每次操作ptr读写前,先增加文件的大小,那么ptr在文件大小内部的操作就是合法的。例如,文件扩充4096字节,ptr就能操作ptr ~ [ (char)ptr + 4095]的空间。只要文件扩充的范围在1000个物理页(映射范围)内,ptr都可以对应操作相同的大小。
这样,方便随时扩充文件空间,随时写入文件,不造成空间浪费

 

参考的优秀博文:
https://www.cnblogs.com/huxiao-tee/p/4657851.html
https://blog.csdn.net/zhongyhc/article/details/101724804