DEN0013D_cortex_a_series_PG.pdf。
ARM架构支持一级页表映射,也就是说MMU根据CPU发来的虚拟地址可以找到第1个页表,从第1个页表里就可以知道这个虚拟地址对应的物理地址。一级页表里地址映射的最小单位是1M。
ARM架构还支持二级页表映射,也就是说MMU根据CPU发来的虚拟地址先找到第1个页表,从第1个页表里就可以知道第2级页表在哪里;再取出第2级页表,从第2个页表里才能确定这个虚拟地址对应的物理地址。二级页表地址映射的最小单位有4K、1K,Linux使用4K。
一级页表项里的内容,决定了它是指向一块物理内存,还是指问二级页表,如下图:
页表项就是一个32位的数据,里面保存有物理地址,还有一些控制信息。
页表项的bit1、bit0表示它是一级页表项,还是二级页表项。
对于一级页表项,里面含有1M空间的物理基地址,这也成为段映射,该物理地址也被称为段基址。
![[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-u21l2UbP-1660785945121)(pic/05_内存映射/01_pate_table_item.png)]](https://1000bd.com/contentImg/2024/03/30/7dfa48cbbdcb674e.png)
上图中的TEX、C、B可以用来控制这块空间的访问方法:是否使用Cache、Buffer等待。
下图过于复杂,我们只需要知道:
如下图所示:
![[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-I8LkTgVH-1660785945122)(pic/05_内存映射/04_memory_type.png)]](https://1000bd.com/contentImg/2024/03/30/690f1a1ae94d34b9.png)
使用一级页表时,先在内存里设置好各个页表项,然后把页表基地址告诉MMU,就可以启动MMU了。
以下图为例介绍地址映射过程:
① CPU发出虚拟地址vaddr,假设为0x12345678
② MMU根据vaddr[31:20]找到一级页表项
③ 从这个表项里取出物理基地址:Section Base Address,假设是0x81000000
④ 物理基地址加上段内偏移得到:0x81045678
所以CPU要访问虚拟地址0x12345678时,实际上访问的是0x81045678的物理地址。

先设置好一级页表、二级页表,并且把一级页表的首地址告诉MMU。
以下图为例介绍地址映射过程:
![[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-c3k3Z8YV-1660785945123)(pic/05_内存映射/06_map2_example.png)]](https://1000bd.com/contentImg/2024/03/30/b724efe5e46ca84c.png)
① CPU发出虚拟地址vaddr,假设为0x12345678
② MMU根据vaddr[31:20]找到一级页表项
③ 从这个表项里取出地址,假设是address,这表示的是二级页表项的物理地址;
④ vaddr[19:12]表示的是二级页表项中的索引index即0x45,在二级页表项中找到第0x45项;
⑤ 二级页表项格式如下
![[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-wS30RU0Z-1660785945123)(pic/05_内存映射/05_second_pate_table_item.png)]](https://1000bd.com/contentImg/2024/03/30/79f3f94d4bfac8b1.png)
里面含有这4K或1K物理空间的基地址page base addr,假设是0x81889000
所以CPU要访问虚拟地址0x12345678时,实际上访问的是0x81889678的物理地址
本小节参考:ARM的cache和写缓冲器(write buffer)
使用MMU时,需要有cache、buffer的知识。
下图是CPU和内存之间的关系,有cache、buffer(写缓冲器)。
Cache是一块高速内存;写缓冲器相当于一个FIFO,可以把多个写操作集合起来一次写入内存。
![[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-JdlO15lD-1660785945124)(pic/05_内存映射/07_cpu_cache_buffer.png)]](https://1000bd.com/contentImg/2024/03/30/14d175d91194caa8.png)
程序运行时有“局部性原理”,这又分为时间局部性、空间局部性。
时间局部性:
在某个时间点访问了存储器的特定位置,很可能在一小段时间里,会反复地访问这个位置。
空间局部性
访问了存储器的特定位置,很可能在不久的将来访问它附近的位置。
而CPU的速度非常快,内存的速度相对来说很慢。
CPU要读写比较慢的内存时,怎样可以加快速度?
根据“局部性原理”,可以引入cache:
读取内存addr处的数据时
写数据
是否使用cache、是否使用buffer,就有4种组合(Linux内核文件arch\arm\include\asm\pgtable-2level.h):
![[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-pFtdMsPZ-1660785945124)(pic/05_内存映射/08_4type_for_cache_buffer.png)]](https://1000bd.com/contentImg/2024/03/30/b2e0c445c5b77204.png)
上面4种组合对应下表中的各项,一一对应(下表来自s3c2410芯片手册,高架构的cache、buffer更复杂,但是这些基础知识没变):
| 是否启用cache | 是否启用buffer | 说明 |
|---|---|---|
| 0 | 0 | Non-cached, non-buffered (NCNB) 读、写都直达外设硬件 |
| 0 | 1 | Non-cached buffered (NCB) 读、写都直达外设硬件; 写操作通过buffer实现,CPU不等待写操作完成,CPU会马上执行下一条指令 |
| 1 | 0 | Cached, write-through mode (WT),写通 读:cache hit时从cahce读数据;cache miss时已入一行数据到cache; 写:通过buffer实现,CPU不等待写操作完成,CPU会马上执行下一条指令 |
| 1 | 1 | Cached, write-back mode (WB),写回 读:cache hit时从cahce读数据;cache miss时已入一行数据到cache; 写:通过buffer实现,cache hit时新数据不会到达硬件,而是在cahce中被标为“脏”;cache miss时,通过buffer写入硬件,CPU不等待写操作完成,CPU会马上执行下一条指令 |
第1种是不使用cache也不使用buffer,读写时都直达硬件,这适合寄存器的读写。
第2种是不使用cache但是使用buffer,写数据时会用buffer进行优化,可能会有“写合并”,这适合显存的操作。因为对显存很少有读操作,基本都是写操作,而写操作即使被“合并”也没有关系。
第3种是使用cache不使用buffer,就是“write through”,适用于只读设备:在读数据时用cache加速,基本不需要写。
第4种是既使用cache又使用buffer,适合一般的内存读写。
是写操作,而写操作即使被“合并”也没有关系。
第3种是使用cache不使用buffer,就是“write through”,适用于只读设备:在读数据时用cache加速,基本不需要写。
第4种是既使用cache又使用buffer,适合一般的内存读写。