• Linux内存管理知识总结(一)


    以下源代码来自 linux-5.10.3 内核代码,主要以 x86-32 为例

    Linux 内存管理是一个很复杂的“工程”,它不仅仅是对物理内存的管理,也涉及到虚拟内存管理、内存交换和内存回收等

    物理内存的探测

    Linux 内核通过 detect_memory()函数实现对物理内存的探测

    1. void detect_memory(void)
    2. {
    3. detect_memory_e820();
    4. detect_memory_e801();
    5. detect_memory_88();
    6. }

    这里主要介绍一下 detect_memory_e820(),detect_memory_e801()和 detect_memory_88()是针对较老的电脑进行兼容而保留的

    1. static void detect_memory_e820(void)
    2. {
    3. int count = 0;
    4. struct biosregs ireg, oreg;
    5. struct boot_e820_entry *desc = boot_params.e820_table;
    6. static struct boot_e820_entry buf; /* static so it is zeroed */
    7. initregs(&ireg);
    8. ireg.ax = 0xe820;
    9. ireg.cx = sizeof(buf);
    10. ireg.edx = SMAP;
    11. ireg.di = (size_t)&buf;
    12. do {
    13. intcall(0x15, &ireg, &oreg);
    14. ireg.ebx = oreg.ebx; /* for next iteration... */
    15. if (oreg.eflags & X86_EFLAGS_CF)
    16. break;
    17. if (oreg.eax != SMAP) {
    18. count = 0;
    19. break;
    20. }
    21. *desc++ = buf;
    22. count++;
    23. } while (ireg.ebx && count < ARRAY_SIZE(boot_params.e820_table));
    24. boot_params.e820_entries = count;
    25. }

    detect_memory_e820()实现内核从 BIOS 那里获取到内存的基础布局,之所以叫 e820 是因为内核是通过 0x15 中断向量,并在 AX 寄存器中指定 0xE820,中断调用后将会返回被 BIOS 保留的内存地址范围以及系统可以使用的内存地址范围,所有通过中断获取的数据将会填充在 boot_params.e820_table 中,具体 0xE820 的详细用法感兴趣的话可以上网查……这里获取到的 e820_table 里的数据是未经过整理,linux 会通过 setup_memory_map 去整理这些数据

    1. start_kernel() -> setup_arch() -> setup_memory_map()
    2. void __init e820__memory_setup(void)
    3. {
    4. char *who;
    5. BUILD_BUG_ON(sizeof(struct boot_e820_entry) != 20);
    6. who = x86_init.resources.memory_setup();
    7. memcpy(e820_table_kexec, e820_table, sizeof(*e820_table_kexec));
    8. memcpy(e820_table_firmware, e820_table, sizeof(*e820_table_firmware));
    9. pr_info("BIOS-provided physical RAM map:\n");
    10. e820__print_table(who);
    11. }

    资料直通车:最新Linux内核源码资料文档+视频资料icon-default.png?t=M85Bhttps://docs.qq.com/doc/DTmFTc29xUGdNSnZ2

    内核学习地址:Linux内核源码/内存调优/文件系统/进程管理/设备驱动/网络协议栈

    x86_init.resources.memory_setup()指向了 e820__memory_setup_default(),会将 boot_params.e820_table 转换为内核自己使用的 e820_table,转换之后的e820 表记录着所有物理内存的起始地址、长度以及类型,然后通过 memcpy 将 e820_table 复制到 e820_table_kexec、e820_table_firmware

    1. struct x86_init_ops x86_init __initdata = {
    2. .resources = {
    3. .probe_roms = probe_roms,
    4. .reserve_resources = reserve_standard_io_resources,
    5. .memory_setup = e820__memory_setup_default,
    6. },
    7. ......
    8. }
    9. char *__init e820__memory_setup_default(void)
    10. {
    11. char *who = "BIOS-e820";
    12. /*
    13. * Try to copy the BIOS-supplied E820-map.
    14. *
    15. * Otherwise fake a memory map; one section from 0k->640k,
    16. * the next section from 1mb->appropriate_mem_k
    17. */
    18. if (append_e820_table(boot_params.e820_table, boot_params.e820_entries) < 0) {
    19. u64 mem_size;
    20. /* Compare results from other methods and take the one that gives more RAM: */
    21. if (boot_params.alt_mem_k < boot_params.screen_info.ext_mem_k) {
    22. mem_size = boot_params.screen_info.ext_mem_k;
    23. who = "BIOS-88";
    24. } else {
    25. mem_size = boot_params.alt_mem_k;
    26. who = "BIOS-e801";
    27. }
    28. e820_table->nr_entries = 0;
    29. e820__range_add(0, LOWMEMSIZE(), E820_TYPE_RAM);
    30. e820__range_add(HIGH_MEMORY, mem_size << 10, E820_TYPE_RAM);
    31. }
    32. /* We just appended a lot of ranges, sanitize the table: */
    33. e820__update_table(e820_table);
    34. return who;
    35. }

    内核使用的e820_table 结构描述如下:

    1. enum e820_type {
    2. E820_TYPE_RAM = 1,
    3. E820_TYPE_RESERVED = 2,
    4. E820_TYPE_ACPI = 3,
    5. E820_TYPE_NVS = 4,
    6. E820_TYPE_UNUSABLE = 5,
    7. E820_TYPE_PMEM = 7,
    8. E820_TYPE_PRAM = 12,
    9. E820_TYPE_SOFT_RESERVED = 0xefffffff,
    10. E820_TYPE_RESERVED_KERN = 128,
    11. };
    12. struct e820_entry {
    13. u64 addr;
    14. u64 size;
    15. enum e820_type type;
    16. } __attribute__((packed));
    17. struct e820_table {
    18. __u32 nr_entries;
    19. struct e820_entry entries[E820_MAX_ENTRIES];
    20. };

    memblock 内存分配器

    linux x86 内存映射主要存在两种方式:段式映射和页式映射。linux 首次进入保护模式时会用到段式映射(加电时,运行在实模式,任意内存地址都能执行代码,可以被读写,这非常不安全,CPU 为了提供限制/禁止的手段,提出了保护模式),根据段寄存器(以 8086 为例,段寄存器有 CS(Code Segment):代码段寄存器;DS(Data Segment):数据段寄存器;SS(Stack Segment):堆栈段寄存器;ES(Extra Segment):附加段寄存器)查找到对应的段描述符(这里其实就是用到了段描述符表,即段表),段描述符指明了此时的环境可以通过段访问到内存基地址、空间大小和访问权限。访问权限则点明了哪些内存可读、哪些内存可写。

    1. typedef struct Descriptor{
    2. unsigned int base; // 段基址
    3. unsigned int limit; // 段大小
    4. unsigned short attribute; // 段属性、权限
    5. }

    linux 在段描述符表准备完成之后会通过汇编跳转到保护模式

    事实上,在上面这个过程中,linux 并没有明显地去区分每个段,所以这里并没有很好地起到保护作用,linux 最终使用的还是内存分页管理(开启页式映射可以参考/arch/x86/kernel/head_32.S)

    memblock 算法

    memblock 是 linux 内核初始化阶段使用的一个内存分配器,实现较为简单,负责页分配器初始化之前的内存管理和分配请求,memblock 的结构如下

    1. struct memblock_region {
    2. phys_addr_t base;
    3. phys_addr_t size;
    4. enum memblock_flags flags;
    5. #ifdef CONFIG_NEED_MULTIPLE_NODES
    6. int nid;
    7. #endif
    8. };
    9. struct memblock_type {
    10. unsigned long cnt;
    11. unsigned long max;
    12. phys_addr_t total_size;
    13. struct memblock_region *regions;
    14. char *name;
    15. };
    16. struct memblock {
    17. bool bottom_up; /* is bottom up direction? */
    18. phys_addr_t current_limit;
    19. struct memblock_type memory;
    20. struct memblock_type reserved;
    21. };

    bottom_up:用来表示分配器分配内存是自低地址向高地址还是自高地址向低地址

    current_limit:用来表示用来限制 memblock_alloc()和 memblock_alloc_base()的内存申请

    memory:用于指向系统可用物理内存区,这个内存区维护着系统所有可用的物理内存,即系统 DRAM 对应的物理内存

    reserved:用于指向系统预留区,也就是这个内存区的内存已经分配,在释放之前不能再次分配这个区内的内存区块

    memblock_type中的cnt用于描述该类型内存区中的内存区块数,这有利于 MEMBLOCK 内存分配器动态地知道某种类型的内存区还有多少个内存区块

    memblock_type 中的max用于描述该类型内存区最大可以含有多少个内存区块,当往某种类型的内存区添加 内存区块的时候,如果内存区的内存区块数超过 max 成员,那么 memblock 内存分配器就会增加内存区的容量,以此维护更多的内存区块

    memblock_type 中的total_size用于统计内存区总共含有的物理内存数

    memblock_type 中的regions是一个内存区块链表,用于维护属于这类型的所有内存区块(包括基址、大小和内存块标记等),

    name :用于指明这个内存区的名字,MEMBLOCK 分配器目前支持的内存区名字有: “memory”, “reserved”, “physmem”

    具体关系可以参考下图:

    内核启动后会为 MEMBLOCK 内存分配器创建了一些私有的 section,这些 section 用于存放于 MEMBLOCK 分配器有关的函数和数据,即 **init_memblock 和 **initdata_memblock。在创建完 init_memblock section 和 initdata_memblock section 之后,memblock 分配器会开始创建 struct memblock 实例,这个实例此时作为最原始的 MEMBLOCK 分配器,描述了系统的物理内存的初始值

    1. #define MEMBLOCK_ALLOC_ANYWHERE (~(phys_addr_t)0) //0xFFFFFFFF
    2. #define INIT_MEMBLOCK_REGIONS 128
    3. #ifndef INIT_MEMBLOCK_RESERVED_REGIONS
    4. # define INIT_MEMBLOCK_RESERVED_REGIONS INIT_MEMBLOCK_REGIONS
    5. #endif
    6. static struct memblock_region memblock_memory_init_regions[INIT_MEMBLOCK_REGIONS] __initdata_memblock;
    7. static struct memblock_region memblock_reserved_init_regions[INIT_MEMBLOCK_RESERVED_REGIONS] __initdata_memblock;
    8. struct memblock memblock __initdata_memblock = {
    9. .memory.regions = memblock_memory_init_regions,
    10. .memory.cnt = 1, /* empty dummy entry */
    11. .memory.max = INIT_MEMBLOCK_REGIONS,
    12. .memory.name = "memory",
    13. .reserved.regions = memblock_reserved_init_regions,
    14. .reserved.cnt = 1, /* empty dummy entry */
    15. .reserved.max = INIT_MEMBLOCK_RESERVED_REGIONS,
    16. .reserved.name = "reserved",
    17. .bottom_up = false,
    18. .current_limit = MEMBLOCK_ALLOC_ANYWHERE,
    19. };

    内核在 setup_arch(char **cmdline_p)中会调用e820__memblock_setup()对 MEMBLOCK 内存分配器进行初始化启动

    1. void __init e820__memblock_setup(void)
    2. {
    3. int i;
    4. u64 end;
    5. memblock_allow_resize();
    6. for (i = 0; i < e820_table->nr_entries; i++) {
    7. struct e820_entry *entry = &e820_table->entries[i];
    8. end = entry->addr + entry->size;
    9. if (end != (resource_size_t)end)
    10. continue;
    11. if (entry->type == E820_TYPE_SOFT_RESERVED)
    12. memblock_reserve(entry->addr, entry->size);
    13. if (entry->type != E820_TYPE_RAM && entry->type != E820_TYPE_RESERVED_KERN)
    14. continue;
    15. memblock_add(entry->addr, entry->size);
    16. }
    17. /* Throw away partial pages: */
    18. memblock_trim_memory(PAGE_SIZE);
    19. memblock_dump_all();
    20. }

    memblock_allow_resize() 仅是用于置 memblock_can_resize 的值,里面的 for 则是用于循环遍历 e820 的内存布局信息,然后进行 memblock_add 的操作

    1. int __init_memblock memblock_add(phys_addr_t base, phys_addr_t size)
    2. {
    3. phys_addr_t end = base + size - 1;
    4. memblock_dbg("%s: [%pa-%pa] %pS\n", __func__,
    5. &base, &end, (void *)_RET_IP_);
    6. return memblock_add_range(&memblock.memory, base, size, MAX_NUMNODES, 0);
    7. }

    memblock_add()主要封装了 memblock_add_region(),且它操作对象是 memblock.memory,即系统可用物理内存区。

    1. static int __init_memblock memblock_add_range(struct memblock_type *type,
    2. phys_addr_t base, phys_addr_t size,
    3. int nid, enum memblock_flags flags)
    4. {
    5. bool insert = false;
    6. phys_addr_t obase = base;
    7. //调整size大小,确保不会越过边界
    8. phys_addr_t end = base + memblock_cap_size(base, &size);
    9. int idx, nr_new;
    10. struct memblock_region *rgn;
    11. if (!size)
    12. return 0;
    13. /* special case for empty array */
    14. if (type->regions[0].size == 0) {
    15. WARN_ON(type->cnt != 1 || type->total_size);
    16. type->regions[0].base = base;
    17. type->regions[0].size = size;
    18. type->regions[0].flags = flags;
    19. memblock_set_region_node(&type->regions[0], nid);
    20. type->total_size = size;
    21. return 0;
    22. }
    23. repeat:
    24. /*
    25. * The following is executed twice. Once with %false @insert and
    26. * then with %true. The first counts the number of regions needed
    27. * to accommodate the new area. The second actually inserts them.
    28. */
    29. base = obase;
    30. nr_new = 0;
    31. for_each_memblock_type(idx, type, rgn) {
    32. phys_addr_t rbase = rgn->base;
    33. phys_addr_t rend = rbase + rgn->size;
    34. if (rbase >= end)
    35. break;
    36. if (rend <= base)
    37. continue;
    38. /*
    39. * @rgn overlaps. If it separates the lower part of new
    40. * area, insert that portion.
    41. */
    42. if (rbase > base) {
    43. #ifdef CONFIG_NEED_MULTIPLE_NODES
    44. WARN_ON(nid != memblock_get_region_node(rgn));
    45. #endif
    46. WARN_ON(flags != rgn->flags);
    47. nr_new++;
    48. if (insert)
    49. memblock_insert_region(type, idx++, base,
    50. rbase - base, nid,
    51. flags);
    52. }
    53. /* area below @rend is dealt with, forget about it */
    54. base = min(rend, end);
    55. }
    56. /* insert the remaining portion */
    57. if (base < end) {
    58. nr_new++;
    59. if (insert)
    60. memblock_insert_region(type, idx, base, end - base,
    61. nid, flags);
    62. }
    63. if (!nr_new)
    64. return 0;
    65. /*
    66. * If this was the first round, resize array and repeat for actual
    67. * insertions; otherwise, merge and return.
    68. */
    69. if (!insert) {
    70. while (type->cnt + nr_new > type->max)
    71. if (memblock_double_array(type, obase, size) < 0)
    72. return -ENOMEM;
    73. insert = true;
    74. goto repeat;
    75. } else {
    76. memblock_merge_regions(type);
    77. return 0;
    78. }
    79. }

    如果 memblock 算法管理的内存为空时,将当前空间添加进去

    不为空的情况下,for_each_memblock_type(idx, type, rgn)这个循环会检查是否存在内存重叠的情况,如果有的话,则剔除重叠部分,然后将其余非重叠的部分插入 memblock。内存块的添加主要分为四种情况(其余情况与这几种类似),可以参考下图:

    如果 region 空间不够,则通过 memblock_double_array()添加新的空间,然后重试。

    最后 memblock_merge_regions()会将紧挨着的内存进行合并(节点号、flag 等必须一致,节点号后面再进行介绍)。

    memblock 内存分配与回收

    到这里,memblock 内存管理的初始化基本完成,后面还有一些关于 memblock.memory 的修正,这里就不做介绍了,最后也简单介绍一下memblock 的内存分配和回收,即 memblock_alloc()和 memblock_free()。

    1. //size即分配区块的大小,align用于字节对齐,表示分配区块的对齐大小
    2. //这里NUMA_NO_NODE指任何节点(没有节点),关于节点后面会介绍,这里节点还没初始化
    3. //MEMBLOCK_ALLOC_ACCESSIBLE指分配内存块时仅受memblock.current_limit的限制
    4. #define NUMA_NO_NODE (-1)
    5. #define MEMBLOCK_LOW_LIMIT 0
    6. #define MEMBLOCK_ALLOC_ACCESSIBLE 0
    7. static inline void * __init memblock_alloc(phys_addr_t size, phys_addr_t align)
    8. {
    9. return memblock_alloc_try_nid(size, align, MEMBLOCK_LOW_LIMIT,
    10. MEMBLOCK_ALLOC_ACCESSIBLE, NUMA_NO_NODE);
    11. }
    12. void * __init memblock_alloc_try_nid(
    13. phys_addr_t size, phys_addr_t align,
    14. phys_addr_t min_addr, phys_addr_t max_addr,
    15. int nid)
    16. {
    17. void *ptr;
    18. memblock_dbg("%s: %llu bytes align=0x%llx nid=%d from=%pa max_addr=%pa %pS\n",
    19. __func__, (u64)size, (u64)align, nid, &min_addr,
    20. &max_addr, (void *)_RET_IP_);
    21. ptr = memblock_alloc_internal(size, align,
    22. min_addr, max_addr, nid, false);
    23. if (ptr)
    24. memset(ptr, 0, size);
    25. return ptr;
    26. }
    27. static void * __init memblock_alloc_internal(
    28. phys_addr_t size, phys_addr_t align,
    29. phys_addr_t min_addr, phys_addr_t max_addr,
    30. int nid, bool exact_nid)
    31. {
    32. phys_addr_t alloc;
    33. /*
    34. * Detect any accidental use of these APIs after slab is ready, as at
    35. * this moment memblock may be deinitialized already and its
    36. * internal data may be destroyed (after execution of memblock_free_all)
    37. */
    38. if (WARN_ON_ONCE(slab_is_available()))
    39. return kzalloc_node(size, GFP_NOWAIT, nid);
    40. if (max_addr > memblock.current_limit)
    41. max_addr = memblock.current_limit;
    42. alloc = memblock_alloc_range_nid(size, align, min_addr, max_addr, nid,
    43. exact_nid);
    44. /* retry allocation without lower limit */
    45. if (!alloc && min_addr)
    46. alloc = memblock_alloc_range_nid(size, align, 0, max_addr, nid,
    47. exact_nid);
    48. if (!alloc)
    49. return NULL;
    50. return phys_to_virt(alloc);
    51. }

    memblock_alloc_internal 返回的是分配到的内存块的虚拟地址,为 NULL 表示分配失败,关于 phys_to_virt 的实现后面再介绍,这里主要看 memblock_alloc_range_nid 的实现。

    1. phys_addr_t __init memblock_alloc_range_nid(phys_addr_t size,
    2. phys_addr_t align, phys_addr_t start,
    3. phys_addr_t end, int nid,
    4. bool exact_nid)
    5. {
    6. enum memblock_flags flags = choose_memblock_flags();
    7. phys_addr_t found;
    8. if (WARN_ONCE(nid == MAX_NUMNODES, "Usage of MAX_NUMNODES is deprecated. Use NUMA_NO_NODE instead\n"))
    9. nid = NUMA_NO_NODE;
    10. if (!align) {
    11. /* Can't use WARNs this early in boot on powerpc */
    12. dump_stack();
    13. align = SMP_CACHE_BYTES;
    14. }
    15. again:
    16. found = memblock_find_in_range_node(size, align, start, end, nid,
    17. flags);
    18. if (found && !memblock_reserve(found, size))
    19. goto done;
    20. if (nid != NUMA_NO_NODE && !exact_nid) {
    21. found = memblock_find_in_range_node(size, align, start,
    22. end, NUMA_NO_NODE,
    23. flags);
    24. if (found && !memblock_reserve(found, size))
    25. goto done;
    26. }
    27. if (flags & MEMBLOCK_MIRROR) {
    28. flags &= ~MEMBLOCK_MIRROR;
    29. pr_warn("Could not allocate %pap bytes of mirrored memory\n",
    30. &size);
    31. goto again;
    32. }
    33. return 0;
    34. done:
    35. if (end != MEMBLOCK_ALLOC_KASAN)
    36. kmemleak_alloc_phys(found, size, 0, 0);
    37. return found;
    38. }

    kmemleak 是一个检查内存泄漏的工具,这里就不做介绍了。

    memblock_alloc_range_nid()首先对 align 参数进行检测,如果为零,则警告。接着函数调用 memblock_find_in_range_node() 函数从可用内存区中找一块大小为 size 的物理内存区块, 然后调用 memblock_reseve() 函数在找到的情况下,将这块物理内存区块加入到预留区内。

    1. static phys_addr_t __init_memblock memblock_find_in_range_node(phys_addr_t size,
    2. phys_addr_t align, phys_addr_t start,
    3. phys_addr_t end, int nid,
    4. enum memblock_flags flags)
    5. {
    6. phys_addr_t kernel_end, ret;
    7. /* pump up @end */
    8. if (end == MEMBLOCK_ALLOC_ACCESSIBLE ||
    9. end == MEMBLOCK_ALLOC_KASAN)
    10. end = memblock.current_limit;
    11. /* avoid allocating the first page */
    12. start = max_t(phys_addr_t, start, PAGE_SIZE);
    13. end = max(start, end);
    14. kernel_end = __pa_symbol(_end);
    15. if (memblock_bottom_up() && end > kernel_end) {
    16. phys_addr_t bottom_up_start;
    17. /* make sure we will allocate above the kernel */
    18. bottom_up_start = max(start, kernel_end);
    19. /* ok, try bottom-up allocation first */
    20. ret = __memblock_find_range_bottom_up(bottom_up_start, end,
    21. size, align, nid, flags);
    22. if (ret)
    23. return ret;
    24. WARN_ONCE(IS_ENABLED(CONFIG_MEMORY_HOTREMOVE),
    25. "memblock: bottom-up allocation failed, memory hotremove may be affected\n");
    26. }
    27. return __memblock_find_range_top_down(start, end, size, align, nid,
    28. flags);
    29. }

    memblock 分配器分配内存是支持自低地址向高地址和自高地址向低地址的,如果 memblock_bottom_up() 函数返回 true,表示 MEMBLOCK 从低向上分配,而前面初始化的时候这个返回值其实是 false(某些情况下不一定),所以这里主要看__memblock_find_range_top_down 的实现(__memblock_find_range_bottom_up 的实现是类似的)。

    1. static phys_addr_t __init_memblock
    2. __memblock_find_range_top_down(phys_addr_t start, phys_addr_t end,
    3. phys_addr_t size, phys_addr_t align, int nid,
    4. enum memblock_flags flags)
    5. {
    6. phys_addr_t this_start, this_end, cand;
    7. u64 i;
    8. for_each_free_mem_range_reverse(i, nid, flags, &this_start, &this_end,
    9. NULL) {
    10. this_start = clamp(this_start, start, end);
    11. this_end = clamp(this_end, start, end);
    12. if (this_end < size)
    13. continue;
    14. cand = round_down(this_end - size, align);
    15. if (cand >= this_start)
    16. return cand;
    17. }
    18. return 0;
    19. }

    Clamp 函数可以将随机变化的数值限制在一个给定的区间[min, max]内。

    **__memblock_find_range_top_down()**通过使用 for_each_free_mem_range_reverse 宏封装调用__next_free_mem_range_rev()函数,该函数逐一将 memblock.memory 里面的内存块信息提取出来与 memblock.reserved 的各项信息进行检验,确保返回的 this_start 和 this_end 不会与 reserved 的内存存在交叉重叠的情况。判断大小是否满足,满足的情况下,将自末端向前(因为这是 top-down 申请方式)的 size 大小的空间的起始地址(前提该地址不会超出 this_start)返回回去,至此满足要求的内存块找到了。

    最后看一下memblock_free的实现:

    1. int __init_memblock memblock_free(phys_addr_t base, phys_addr_t size)
    2. {
    3. phys_addr_t end = base + size - 1;
    4. memblock_dbg("%s: [%pa-%pa] %pS\n", __func__,
    5. &base, &end, (void *)_RET_IP_);
    6. kmemleak_free_part_phys(base, size);
    7. return memblock_remove_range(&memblock.reserved, base, size);
    8. }

    这里直接看最核心的部分:

    1. static int __init_memblock memblock_remove_range(struct memblock_type *type,
    2. phys_addr_t base, phys_addr_t size)
    3. {
    4. int start_rgn, end_rgn;
    5. int i, ret;
    6. ret = memblock_isolate_range(type, base, size, &start_rgn, &end_rgn);
    7. if (ret)
    8. return ret;
    9. for (i = end_rgn - 1; i >= start_rgn; i--)
    10. memblock_remove_region(type, i);
    11. return 0;
    12. }
    13. static void __init_memblock memblock_remove_region(struct memblock_type *type, unsigned long r)
    14. {
    15. type->total_size -= type->regions[r].size;
    16. memmove(&type->regions[r], &type->regions[r + 1],
    17. (type->cnt - (r + 1)) * sizeof(type->regions[r]));
    18. type->cnt--;
    19. /* Special case for empty arrays */
    20. if (type->cnt == 0) {
    21. WARN_ON(type->total_size != 0);
    22. type->cnt = 1;
    23. type->regions[0].base = 0;
    24. type->regions[0].size = 0;
    25. type->regions[0].flags = 0;
    26. memblock_set_region_node(&type->regions[0], MAX_NUMNODES);
    27. }
    28. }

    其主要功能是将指定下标索引的内存项从 memblock.reserved 中移除

    在__memblock_remove()里面,memblock_isolate_range()主要作用是将要移除的物理内存区从 reserved 内存区中分离出来,将 start_rgn 和 end_rgn(该内存区块的起始、结束索引号)返回回去。

    memblock_isolate_range()返回后,接着调用 memblock_remove_region() 函数将这些索引对应的内存区块从内存区中移除,这里具体做法为调用 memmove 函数将 r 索引之后的内存区块全部往前挪一个位置,这样 r 索引对应的内存区块就被移除了,如果移除之后,内存区不含有任何内存区块,那么就初始化该内存区。

    memblock 内存管理总结

    memblock 内存区管理算法将可用可分配的内存用 memblock.memory 进行管理,已分配的内存用 memblock.reserved 进行管理,只要内存块加入到 memblock.reserved 里面就表示该内存被申请占用了,另外,在内存申请的时候,memblock 仅是把被申请到的内存加入到 memblock.reserved 中,而没有对 memblock.memory 进行任何删除或改动操作,因此申请和释放的操作都集中在 memblock.reserved。这个算法效率不高,但是却是合理的,因为在内核初始化阶段并没有太多复杂的内存操作场景,而且很多地方都是申请的内存都是永久使用的。

    内核页表

    上面有提到,内核会通过/arch/x86/kernel/head_32.S 开启页式映射,不过这里建立的页表只是临时页表,而内核真正需要建立的是内核页表。

    内核虚拟地址空间与用户虚拟地址空间

    为了合理地利用 4G 的内存空间,Linux 采用了 3:1 的策略,即内核占用 1G 的线性地址空间,用户占用 3G 的线性地址空间,由于历史原因,用户进程的地址范围从 0~3G,内核地址范围从 3G~4G,而内核的那 1GB 地址空间又称为内核虚拟地址(逻辑地址)空间,虽然内核在虚拟地址中是在高地址的,但是在物理地址中是从 0 开始的。

    内核虚拟地址与用户虚拟地址,这两者都是虚拟地址,都需要经过 MMU 的翻译转换为物理地址,从硬件层面上来看,所谓的内核虚拟地址和用户虚拟地址只是权限不一样而已,但在软件层面上看,就大不相同了,当进程需要知道一个用户空间虚拟地址对应的物理地址时,linux 内核需要通过页表来得到它的物理地址,而内核空间虚拟地址是所有进程共享的,也就是说,内核在初始化时,就可以创建内核虚拟地址空间的映射,并且这里的映射就是线性映射,它基本等同于物理地址,只是它们之间有一个固定的偏移,当内核需要获取该物理地址时,可以绕开页表翻译直接通过偏移计算拿到,当然这是从软件层面上来看的,当内核去访问该页时, 硬件层面仍然走的是 MMU 翻译的全过程。

    至于为什么用户虚拟地址空间不能也像内核虚拟地址空间这么做,原因是用户地址空间是随进程创建才产生的,无法事先给它分配一块连续的内存

    内核通过内核虚拟地址可以直接访问到对应的物理地址,那内核如何使用其它的用户虚拟地址(0~3G)?

    Linux 采用的一种折中方案是只对 1G 内核空间的前 896 MB 按线性映射, 剩下的 128 MB 采用动态映射,即走多级页表翻译,这样,内核态能访问空间就更多了。这里 linux 内核把这 896M 的空间称为 NORMAL 内存,剩下的 128M 称为高端内存,即 highmem。在 64 位处理器上,内核空间大大增加,所以也就不需要高端内存了,但是仍然保留了动态映射。

    动态映射不全是为了内核空间可以访问更多的物理内存,还有一个重要原因: 如果内核空间全线性映射,那么很可能就会出现内核空间碎片化而满足不了很多连续页面分配的需求(这类似于内存分段与内存分页)。因此内核空间也必须有一部分是非线性映射,从而在这碎片化物理地址空间上,用页表构造出连续虚拟地址空间(虚拟地址连续、物理地址不连续),这就是所谓的 vmalloc 空间。

    到这里,可以大致知道linux 虚拟内存的构造

    linux 内存分页

    linux 内核主要是通过内存分页来管理内存的,这里先介绍两个重要的变量:max_pfn 和 max_low_pfn。max_pfn 为最大物理内存页面帧号,max_low_pfn 为低端内存区的最大可用页帧号,它们的初始化如下:

    1. void __init setup_arch(char **cmdline_p)
    2. {
    3. ......
    4. max_pfn = e820__end_of_ram_pfn();
    5. .....
    6. #ifdef CONFIG_X86_32
    7. /* max_low_pfn get updated here */
    8. find_low_pfn_range();
    9. #else
    10. check_x2apic();
    11. /* How many end-of-memory variables you have, grandma! */
    12. /* need this before calling reserve_initrd */
    13. if (max_pfn > (1UL<<(32 - PAGE_SHIFT)))
    14. max_low_pfn = e820__end_of_low_ram_pfn();
    15. else
    16. max_low_pfn = max_pfn;
    17. high_memory = (void *)__va(max_pfn * PAGE_SIZE - 1) + 1;
    18. #endif
    19. ......
    20. e820__memblock_setup();
    21. ......
    22. }

    其中 e820__end_of_ram_pfn 的实现如下,其中 E820_TYPE_RAM 代表可用物理内存类型

    1. #define PAGE_SHIFT 12
    2. #ifdef CONFIG_X86_32
    3. # ifdef CONFIG_X86_PAE
    4. # define MAX_ARCH_PFN (1ULL<<(36-PAGE_SHIFT))
    5. # else
    6. //32位系统,1<<20,即0x100000,代表4G物理内存的最大页面帧号
    7. # define MAX_ARCH_PFN (1ULL<<(32-PAGE_SHIFT))
    8. # endif
    9. #else /* CONFIG_X86_32 */
    10. # define MAX_ARCH_PFN MAXMEM>>PAGE_SHIFT
    11. #endif
    12. unsigned long __init e820__end_of_ram_pfn(void)
    13. {
    14. return e820_end_pfn(MAX_ARCH_PFN, E820_TYPE_RAM);
    15. }
    16. /*
    17. * Find the highest page frame number we have available
    18. */
    19. static unsigned long __init e820_end_pfn(unsigned long limit_pfn, enum e820_type type)
    20. {
    21. int i;
    22. unsigned long last_pfn = 0;
    23. unsigned long max_arch_pfn = MAX_ARCH_PFN;
    24. for (i = 0; i < e820_table->nr_entries; i++) {
    25. struct e820_entry *entry = &e820_table->entries[i];
    26. unsigned long start_pfn;
    27. unsigned long end_pfn;
    28. if (entry->type != type)
    29. continue;
    30. start_pfn = entry->addr >> PAGE_SHIFT;
    31. end_pfn = (entry->addr + entry->size) >> PAGE_SHIFT;
    32. if (start_pfn >= limit_pfn)
    33. continue;
    34. if (end_pfn > limit_pfn) {
    35. last_pfn = limit_pfn;
    36. break;
    37. }
    38. if (end_pfn > last_pfn)
    39. last_pfn = end_pfn;
    40. }
    41. if (last_pfn > max_arch_pfn)
    42. last_pfn = max_arch_pfn;
    43. pr_info("last_pfn = %#lx max_arch_pfn = %#lx\n",
    44. last_pfn, max_arch_pfn);
    45. return last_pfn;
    46. }

    e820__end_of_ram_pfn其实就是遍历e820_table,得到内存块的起始地址以及内存块大小,将起始地址右移 PAGE_SHIFT,算出其起始地址对应的页面帧号,同时根据内存块大小可以算出结束地址的页号,如果结束页号大于 limit_pfn,则设置该页号为为 limit_pfn,然后通过比较得到一个 last_pfn,即系统真正的最大物理页号。

    max_low_pfn的计算则调用到了find_low_pfn_range

    1. #define PFN_UP(x) (((x) + PAGE_SIZE-1) >> PAGE_SHIFT)
    2. #define PFN_DOWN(x) ((x) >> PAGE_SHIFT)
    3. #define PFN_PHYS(x) ((phys_addr_t)(x) << PAGE_SHIFT)
    4. #ifndef __pa
    5. #define __pa(x) __phys_addr((unsigned long)(x))
    6. #endif
    7. #define VMALLOC_RESERVE SZ_128M
    8. #define VMALLOC_END (CONSISTENT_BASE - PAGE_SIZE)
    9. #define VMALLOC_START ((VMALLOC_END) - VMALLOC_RESERVE)
    10. #define VMALLOC_VMADDR(x) ((unsigned long)(x))
    11. #define MAXMEM __pa(VMALLOC_START)
    12. #define MAXMEM_PFN PFN_DOWN(MAXMEM)
    13. void __init find_low_pfn_range(void)
    14. {
    15. /* it could update max_pfn */
    16. if (max_pfn <= MAXMEM_PFN)
    17. lowmem_pfn_init();
    18. else
    19. highmem_pfn_init();
    20. }

    PFN_DOWN(x)是用来返回小于 x 的最后一个物理页号,PFN_UP(x)是用来返回大于 x 的第一个物理页号,这里 x 即物理地址,而 PFN_PHYS(x)返回的是物理页号 x 对应的物理地址

    __pa 其实就是通过虚拟地址计算出物理地址,这一块后面再做讲解。

    将 MAXMEM 展开一下可得

    1. #ifdef CONFIG_HIGHMEM
    2. #define CONSISTENT_BASE ((PKMAP_BASE) - (SZ_2M))
    3. #define CONSISTENT_END (PKMAP_BASE)
    4. #else
    5. #define CONSISTENT_BASE (FIXADDR_START - SZ_2M)
    6. #define CONSISTENT_END (FIXADDR_START)
    7. #endif
    8. #define SZ_2M 0x00200000
    9. #define SZ_128M 0x08000000
    10. #define MAXMEM __pa(VMALLOC_ENDPAGE_OFFSET – __VMALLOC_RESERVE)
    11. //进一步展开
    12. #define MAXMEM __pa(CONSISTENT_BASE - PAGE_SIZEPAGE_OFFSET – SZ_128M)
    13. //再进一步展开
    14. #define MAXMEM __pa((PKMAP_BASE) - (SZ_2M) - PAGE_SIZEPAGE_OFFSET – SZ_128M)

    下面这一部分就涉及到高端内存的构成了,其中PKMAP_BASE 是持久映射空间(KMAP 空间,持久映射区)的起始地址,LAST_PKMAP 则是持久映射空间的映射页面数,而 FIXADDR_TOP 是固定映射区(临时内核映射区)的末尾,FIXADDR_START 是固定映射区起始地址,其中的__end_of_permanent_fixed_addresses 是固定映射的一个标志(一个枚举值,具体可以参考\arch\x86\include\asm\fixmap.h 里的 enum fixed_addresses)。最后的 VMALLOC_END 即为动态映射区的末尾。

    1. //临时映射
    2. //-4096(4KB) -> 0xfffff000
    3. #define __FIXADDR_TOP (-PAGE_SIZE)
    4. #define FIXADDR_TOP ((unsigned long)__FIXADDR_TOP)
    5. #define FIXADDR_SIZE (__end_of_permanent_fixed_addresses << PAGE_SHIFT)
    6. #define FIXADDR_START (FIXADDR_TOP - FIXADDR_SIZE)
    7. #define FIXADDR_TOT_SIZE (__end_of_fixed_addresses << PAGE_SHIFT)
    8. #define FIXADDR_TOT_START (FIXADDR_TOP - FIXADDR_TOT_SIZE)
    9. //持久内核映射
    10. #ifdef CONFIG_X86_PAE
    11. #define LAST_PKMAP 512
    12. #else
    13. #define LAST_PKMAP 1024
    14. #endif
    15. #define CPU_ENTRY_AREA_BASE \
    16. ((FIXADDR_TOT_START - PAGE_SIZE*(CPU_ENTRY_AREA_PAGES+1)) & PMD_MASK)
    17. #define LDT_BASE_ADDR \
    18. ((CPU_ENTRY_AREA_BASE - PAGE_SIZE) & PMD_MASK)
    19. #define LDT_END_ADDR (LDT_BASE_ADDR + PMD_SIZE)
    20. #define PKMAP_BASE \
    21. ((LDT_BASE_ADDR - PAGE_SIZE) & PMD_MASK)
    22. //动态映射
    23. //0xffffff80<<20 -> 0xf8000000 -> 4,160,749,568 -> 3948MB -> 3GB+896MB 与上述一致
    24. #define high_memory (-128UL << 20)
    25. //8MB
    26. #define VMALLOC_OFFSET (8 * 1024 * 1024)
    27. #define VMALLOC_START ((unsigned long)high_memory + VMALLOC_OFFSET)
    28. #ifdef CONFIG_HIGHMEM
    29. # define VMALLOC_END (PKMAP_BASE - 2 * PAGE_SIZE)
    30. #else
    31. # define VMALLOC_END (LDT_BASE_ADDR - 2 * PAGE_SIZE)
    32. #endif

    直接看图~

    PAGE_OFFSET 代表的是内核空间和用户空间对虚拟地址空间的划分,对不同的体系结构不同。比如在 32 位系统中 3G-4G 属于内核使用的内存空间,所以 PAGE_OFFSET = 0xC0000000

    内核空间如上图,可分为直接内存映射区和高端内存映射区,其中直接内存映射区是指 3G 到 3G+896M 的线性空间,直接对应物理地址就是 0 到 896M(前提是有超过 896M 的物理内存),其中 896M 是 high_memory 值,使用 kmalloc()/kfree()接口申请释放内存;而高端内存映射区则是超过 896M 物理内存的空间,它又分为动态映射区、持久映射区和固定映射区

    动态内存映射区,又称之为 vmalloc 映射区或非连续映射区,是指 VMALLOC_START 到 VMALLOC_END 的地址空间,申请释放内存的接口是 vmalloc()/vfree(),通常用于将非连续的物理内存映射为连续的线性地址内存空间;

    而持久映射区,又称之为 KMAP 区或永久映射区,是指自 PKMAP_BASE 开始共 LAST_PKMAP 个页面大小的空间,操作接口是 kmap()/kunmap(),用于将高端内存长久映射到内存虚拟地址空间中;

    最后的固定映射区,有时候也称为临时映射区,是指 FIXADDR_START 到 FIXADDR_TOP 的地址空间,操作接口是 kmap_atomic()/kummap_atomic(),用于解决持久映射不能用于中断处理程序而增加的临时内核映射。

    上面的MAXMEM_PFN 其实就是用来判断是否初始化(启用)高端内存,当内存物理页数本来就小于低端内存的最大物理页数时,就没有高端地址映射

    这里接着看 max_low_pfn 的初始化,进入 highmem_pfn_init(void)。

    1. static void __init highmem_pfn_init(void)
    2. {
    3. max_low_pfn = MAXMEM_PFN;
    4. if (highmem_pages == -1)
    5. highmem_pages = max_pfn - MAXMEM_PFN;
    6. if (highmem_pages + MAXMEM_PFN < max_pfn)
    7. max_pfn = MAXMEM_PFN + highmem_pages;
    8. if (highmem_pages + MAXMEM_PFN > max_pfn) {
    9. printk(KERN_WARNING MSG_HIGHMEM_TOO_SMALL,
    10. pages_to_mb(max_pfn - MAXMEM_PFN),
    11. pages_to_mb(highmem_pages));
    12. highmem_pages = 0;
    13. }
    14. #ifndef CONFIG_HIGHMEM
    15. /* Maximum memory usable is what is directly addressable */
    16. printk(KERN_WARNING "Warning only %ldMB will be used.\n", MAXMEM>>20);
    17. if (max_pfn > MAX_NONPAE_PFN)
    18. printk(KERN_WARNING "Use a HIGHMEM64G enabled kernel.\n");
    19. else
    20. printk(KERN_WARNING "Use a HIGHMEM enabled kernel.\n");
    21. max_pfn = MAXMEM_PFN;
    22. #else /* !CONFIG_HIGHMEM */
    23. #ifndef CONFIG_HIGHMEM64G
    24. if (max_pfn > MAX_NONPAE_PFN) {
    25. max_pfn = MAX_NONPAE_PFN;
    26. printk(KERN_WARNING MSG_HIGHMEM_TRIMMED);
    27. }
    28. #endif /* !CONFIG_HIGHMEM64G */
    29. #endif /* !CONFIG_HIGHMEM */
    30. }

    highmem_pfn_init 的主要工作其实就是把 max_low_pfn 设置为 MAXMEM_PFN,将 highmem_pages 设置为 max_pfn – MAXMEM_PFN,至此,max_pfn 和 max_low_pfn 初始化完毕。

    低端内存初始化

    回到 setup_arch 函数:

    1. void __init setup_arch(char **cmdline_p)
    2. {
    3. ......
    4. max_pfn = e820__end_of_ram_pfn();
    5. .....
    6. #ifdef CONFIG_X86_32
    7. /* max_low_pfn get updated here */
    8. find_low_pfn_range();
    9. #else
    10. check_x2apic();
    11. /* How many end-of-memory variables you have, grandma! */
    12. /* need this before calling reserve_initrd */
    13. if (max_pfn > (1UL<<(32 - PAGE_SHIFT)))
    14. max_low_pfn = e820__end_of_low_ram_pfn();
    15. else
    16. max_low_pfn = max_pfn;
    17. high_memory = (void *)__va(max_pfn * PAGE_SIZE - 1) + 1;
    18. #endif
    19. ......
    20. early_alloc_pgt_buf(); //<-------------------------------------
    21. /*
    22. * Need to conclude brk, before e820__memblock_setup()
    23. * it could use memblock_find_in_range, could overlap with
    24. * brk area.
    25. */
    26. reserve_brk(); //<-------------------------------------------
    27. ......
    28. e820__memblock_setup();
    29. ......
    30. }

    early_alloc_pgt_buf()即申请页表缓冲区

    1. #define INIT_PGD_PAGE_COUNT 6
    2. #define INIT_PGT_BUF_SIZE (INIT_PGD_PAGE_COUNT * PAGE_SIZE)
    3. RESERVE_BRK(early_pgt_alloc, INIT_PGT_BUF_SIZE);
    4. void __init early_alloc_pgt_buf(void)
    5. {
    6. unsigned long tables = INIT_PGT_BUF_SIZE;
    7. phys_addr_t base;
    8. base = __pa(extend_brk(tables, PAGE_SIZE));
    9. pgt_buf_start = base >> PAGE_SHIFT;
    10. pgt_buf_end = pgt_buf_start;
    11. pgt_buf_top = pgt_buf_start + (tables >> PAGE_SHIFT);
    12. }

    pgt_buf_start:标识该缓冲空间的起始物理内存页框号;

    pgt_buf_end:初始化时和 pgt_buf_start 是同一个值,但是它是用于表示该空间未被申请使用的空间起始页框号;

    pgt_buf_top:则是用来表示缓冲空间的末尾,存放的是该末尾的页框号

    INIT_PGT_BUF_SIZE 即 24KB,这里直接看最关键的部分:extend_brk

    1. unsigned long _brk_start = (unsigned long)__brk_base;
    2. unsigned long _brk_end = (unsigned long)__brk_base;
    3. void * __init extend_brk(size_t size, size_t align)
    4. {
    5. size_t mask = align - 1;
    6. void *ret;
    7. BUG_ON(_brk_start == 0);
    8. BUG_ON(align & mask);
    9. _brk_end = (_brk_end + mask) & ~mask;
    10. BUG_ON((char *)(_brk_end + size) > __brk_limit);
    11. ret = (void *)_brk_end;
    12. _brk_end += size;
    13. memset(ret, 0, size);
    14. return ret;
    15. }

    BUG_ON()函数是内核标记 bug、提供断言并输出信息的常用手段

    __brk_base 相关的初始化可以参考 arch\x86\kernel\vmlinux.lds.S

    在 setup_arch()中,紧接着 early_alloc_pgt_buf()还有 reserve_brk()函数

    1. static void __init reserve_brk(void)
    2. {
    3. if (_brk_end > _brk_start)
    4. memblock_reserve(__pa_symbol(_brk_start),
    5. _brk_end - _brk_start);
    6. /* Mark brk area as locked down and no longer taking any
    7. new allocations */
    8. _brk_start = 0;
    9. }

    这个地方主要是将 early_alloc_pgt_buf()申请的空间在 membloc 中做 reserved 保留操作,避免被其它地方申请使用而引发异常

    回到 setup_arch 函数:

    1. void __init setup_arch(char **cmdline_p)
    2. {
    3. ......
    4. max_pfn = e820__end_of_ram_pfn(); //max_pfn初始化
    5. ......
    6. find_low_pfn_range(); //max_low_pfn、高端内存初始化
    7. ......
    8. ......
    9. early_alloc_pgt_buf(); //页表缓冲区分配
    10. reserve_brk(); //缓冲区加入memblock.reserve
    11. ......
    12. e820__memblock_setup(); //memblock.memory空间初始化 启动
    13. ......
    14. init_mem_mapping(); //<-----------------------------
    15. ......
    16. }

    init_mem_mapping()即低端内存内核页表初始化的关键函数

    1. #define ISA_END_ADDRESS 0x00100000 //1MB
    2. void __init init_mem_mapping(void)
    3. {
    4. unsigned long end;
    5. pti_check_boottime_disable();
    6. probe_page_size_mask();
    7. setup_pcid();
    8. #ifdef CONFIG_X86_64
    9. end = max_pfn << PAGE_SHIFT;
    10. #else
    11. end = max_low_pfn << PAGE_SHIFT;
    12. #endif
    13. /* the ISA range is always mapped regardless of memory holes */
    14. init_memory_mapping(0, ISA_END_ADDRESS, PAGE_KERNEL);
    15. /* Init the trampoline, possibly with KASLR memory offset */
    16. init_trampoline();
    17. /*
    18. * If the allocation is in bottom-up direction, we setup direct mapping
    19. * in bottom-up, otherwise we setup direct mapping in top-down.
    20. */
    21. if (memblock_bottom_up()) {
    22. unsigned long kernel_end = __pa_symbol(_end);
    23. memory_map_bottom_up(kernel_end, end);
    24. memory_map_bottom_up(ISA_END_ADDRESS, kernel_end);
    25. } else {
    26. memory_map_top_down(ISA_END_ADDRESS, end);
    27. }
    28. #ifdef CONFIG_X86_64
    29. if (max_pfn > max_low_pfn) {
    30. /* can we preseve max_low_pfn ?*/
    31. max_low_pfn = max_pfn;
    32. }
    33. #else
    34. early_ioremap_page_table_range_init();
    35. #endif
    36. load_cr3(swapper_pg_dir);
    37. __flush_tlb_all();
    38. x86_init.hyper.init_mem_mapping();
    39. early_memtest(0, max_pfn_mapped << PAGE_SHIFT);
    40. }

    probe_page_size_mask()主要作用是初始化直接映射变量(直接映射区相关)以及根据配置来控制 CR4 寄存器的置位,用于后面分页时页面大小的判定。

    上面 init_memory_mapping 的参数 ISA_END_ADDRESS 表示 ISA 总线上设备的末尾地址。

    init_memory_mapping(0, ISA_END_ADDRESS, PAGE_KERNEL)初始化 0 ~ 1MB 的物理地址,一般内核启动时被安装在 1MB 开始处,这里初始化完成之后会调用到 memory_map_bottom_up 或者 memory_map_top_down,后面就是初始化 1MB ~ 内核结束地址 这块物理地址区域 ,最后也会回归到 init_memory_mapping 的调用,因此这里不做过多的介绍,直接看 init_memory_mapping():

    1. #ifdef CONFIG_X86_32
    2. #define NR_RANGE_MR 3
    3. #else /* CONFIG_X86_64 */
    4. #define NR_RANGE_MR 5
    5. #endif
    6. struct map_range {
    7. unsigned long start;
    8. unsigned long end;
    9. unsigned page_size_mask;
    10. };
    11. unsigned long __ref init_memory_mapping(unsigned long start,
    12. unsigned long end, pgprot_t prot)
    13. {
    14. struct map_range mr[NR_RANGE_MR];
    15. unsigned long ret = 0;
    16. int nr_range, i;
    17. pr_debug("init_memory_mapping: [mem %#010lx-%#010lx]\n",
    18. start, end - 1);
    19. memset(mr, 0, sizeof(mr));
    20. nr_range = split_mem_range(mr, 0, start, end);
    21. for (i = 0; i < nr_range; i++)
    22. ret = kernel_physical_mapping_init(mr[i].start, mr[i].end,
    23. mr[i].page_size_mask,
    24. prot);
    25. add_pfn_range_mapped(start >> PAGE_SHIFT, ret >> PAGE_SHIFT);
    26. return ret >> PAGE_SHIFT;
    27. }

    struct map_range,该结构是用来保存内存段信息,其包含了一个段的起始地址、结束地址,以及该段是按多大的页面进行分页(4K、2M、1G,1G 是 64 位的,所以这里不提及)。

    1. static int __meminit split_mem_range(struct map_range *mr, int nr_range,
    2. unsigned long start,
    3. unsigned long end)
    4. {
    5. unsigned long start_pfn, end_pfn, limit_pfn;
    6. unsigned long pfn;
    7. int i;
    8. //返回小于...的最后一个物理页号
    9. limit_pfn = PFN_DOWN(end);
    10. pfn = start_pfn = PFN_DOWN(start);
    11. if (pfn == 0)
    12. end_pfn = PFN_DOWN(PMD_SIZE);
    13. else
    14. end_pfn = round_up(pfn, PFN_DOWN(PMD_SIZE));
    15. if (end_pfn > limit_pfn)
    16. end_pfn = limit_pfn;
    17. if (start_pfn < end_pfn) {
    18. nr_range = save_mr(mr, nr_range, start_pfn, end_pfn, 0);
    19. pfn = end_pfn;
    20. }
    21. /* big page (2M) range */
    22. start_pfn = round_up(pfn, PFN_DOWN(PMD_SIZE));
    23. end_pfn = round_down(limit_pfn, PFN_DOWN(PMD_SIZE));
    24. if (start_pfn < end_pfn) {
    25. nr_range = save_mr(mr, nr_range, start_pfn, end_pfn,
    26. page_size_mask & (1<<PG_LEVEL_2M));
    27. pfn = end_pfn;
    28. }
    29. /* tail is not big page (2M) alignment */
    30. start_pfn = pfn;
    31. end_pfn = limit_pfn;
    32. nr_range = save_mr(mr, nr_range, start_pfn, end_pfn, 0);
    33. if (!after_bootmem)
    34. adjust_range_page_size_mask(mr, nr_range);
    35. /* try to merge same page size and continuous */
    36. for (i = 0; nr_range > 1 && i < nr_range - 1; i++) {
    37. unsigned long old_start;
    38. if (mr[i].end != mr[i+1].start ||
    39. mr[i].page_size_mask != mr[i+1].page_size_mask)
    40. continue;
    41. /* move it */
    42. old_start = mr[i].start;
    43. memmove(&mr[i], &mr[i+1],
    44. (nr_range - 1 - i) * sizeof(struct map_range));
    45. mr[i--].start = old_start;
    46. nr_range--;
    47. }
    48. for (i = 0; i < nr_range; i++)
    49. pr_debug(" [mem %#010lx-%#010lx] page %s\n",
    50. mr[i].start, mr[i].end - 1,
    51. page_size_string(&mr[i]));
    52. return nr_range;
    53. }

    PMD_SIZE 用于计算由页中间目录的一个单独表项所映射的区域大小,也就是一个页表的大小。

    split_mem_range()根据传入的内存 start 和 end 做四舍五入的对齐操作(即 round_up 和 round_down)

    1. #define __round_mask(x, y) ((__typeof__(x))((y)-1))
    2. #define round_up(x, y) ((((x)-1) | __round_mask(x, y))+1)
    3. //可以理解为:#define round_up(x, y) (((x)+(y) - 1)/(y))*(y))
    4. #define round_down(x, y) ((x) & ~__round_mask(x, y))
    5. //可以理解为:#define round_down(x, y) ((x/y) * y)

    round_up 宏依靠整数除法来完成这项工作,仅当两个参数均为整数时,它才有效,x 是需要四舍五入的数字,y 是应该四舍五入的间隔,也就是说,round_up(12,5)应返回 15,因为 15 是大于 12 的 5 的第一个间隔,而 round_down(12,5)应返回 10。

    split_mem_range()会根据对齐的情况,把开始、末尾的不对齐部分及中间部分分成了三段,使用 save_mr()将其存放在 init_mem_mapping()的局部变量数组 mr 中。划分开来主要是为了让各部分可以映射到不同大小的页面,最后如果相邻两部分映射页面的大小是一致的,则将其合并。

    可以通过 dmesg 得到划分的情况(以下是我私服的划分情况,不过是 64 位的……)

    初始化完内存段信息 mr 之后,就行了进入到kernel_physical_mapping_init,这个函数是建立内核页表的最为关键的一步,负责处理物理内存的映射

    在 2.6.11 后,Linux 采用四级分页模型,这四级页目录分别为:

    • 页全局目录(Page Global Directory)
    • 页上级目录(Page Upper Directory)
    • 页中间目录(Page Middle Directory)
    • 页表(Page Table)

    对于没有启动 PAE(物理地址扩展)的 32 位系统,Linux 虽然也采用四级分页模型,但本质上只用到了两级分页,Linux 通过将"页上级目录"位域和“页中间目录”位域全为 0 来达到使用两级分页的目的,但为了保证程序能 32 位和 64 系统上都能运行,内核保留了页上级目录和页中间目录在指针序列中的位置,它们的页目录数都被内核置为 1,并把这 2 个页目录项映射到适合的全局目录项。

    开启 PAE 后,32 位系统寻址方式将大大改变,这时候使用的是三级页表,即页上级目录其实没有真正用到。

    这里不考虑 PAE

    PAGE_OFFSET 代表的是内核空间和用户空间对虚拟地址空间的划分,对不同的体系结构不同。比如在 32 位系统中 3G-4G 属于内核使用的内存空间,所以 PAGE_OFFSET = 0xC0000000

    1. unsigned long __init
    2. kernel_physical_mapping_init(unsigned long start,
    3. unsigned long end,
    4. unsigned long page_size_mask,
    5. pgprot_t prot)
    6. {
    7. int use_pse = page_size_mask == (1<<PG_LEVEL_2M);
    8. unsigned long last_map_addr = end;
    9. unsigned long start_pfn, end_pfn;
    10. pgd_t *pgd_base = swapper_pg_dir;
    11. int pgd_idx, pmd_idx, pte_ofs;
    12. unsigned long pfn;
    13. pgd_t *pgd;
    14. pmd_t *pmd;
    15. pte_t *pte;
    16. unsigned pages_2m, pages_4k;
    17. int mapping_iter;
    18. start_pfn = start >> PAGE_SHIFT;
    19. end_pfn = end >> PAGE_SHIFT;
    20. mapping_iter = 1;
    21. if (!boot_cpu_has(X86_FEATURE_PSE))
    22. use_pse = 0;
    23. repeat:
    24. pages_2m = pages_4k = 0;
    25. pfn = start_pfn; //pfn保存起始页框号
    26. pgd_idx = pgd_index((pfn<<PAGE_SHIFT) + PAGE_OFFSET); //低端内存的起始地址对应的pgd的偏移
    27. pgd = pgd_base + pgd_idx; //得到起始页框对应的pgd
    28. //由pgd开始遍历
    29. for (; pgd_idx < PTRS_PER_PGD; pgd++, pgd_idx++) {
    30. pmd = one_md_table_init(pgd);//申请得到一个pmd表
    31. if (pfn >= end_pfn)
    32. continue;
    33. #ifdef CONFIG_X86_PAE
    34. pmd_idx = pmd_index((pfn<<PAGE_SHIFT) + PAGE_OFFSET);
    35. pmd += pmd_idx;
    36. #else
    37. pmd_idx = 0;
    38. #endif
    39. //遍历pmd表,对于未激活PAE的32位系统,PTRS_PER_PMD为1,激活PAE则为512
    40. for (; pmd_idx < PTRS_PER_PMD && pfn < end_pfn;
    41. pmd++, pmd_idx++) {
    42. unsigned int addr = pfn * PAGE_SIZE + PAGE_OFFSET;
    43. /*
    44. * Map with big pages if possible, otherwise
    45. * create normal page tables:
    46. */
    47. if (use_pse) {
    48. unsigned int addr2;
    49. pgprot_t prot = PAGE_KERNEL_LARGE;
    50. /*
    51. * first pass will use the same initial
    52. * identity mapping attribute + _PAGE_PSE.
    53. */
    54. pgprot_t init_prot =
    55. __pgprot(PTE_IDENT_ATTR |
    56. _PAGE_PSE);
    57. pfn &= PMD_MASK >> PAGE_SHIFT;
    58. addr2 = (pfn + PTRS_PER_PTE-1) * PAGE_SIZE +
    59. PAGE_OFFSET + PAGE_SIZE-1;
    60. if (__is_kernel_text(addr) ||
    61. __is_kernel_text(addr2))
    62. prot = PAGE_KERNEL_LARGE_EXEC;
    63. pages_2m++;
    64. if (mapping_iter == 1)
    65. set_pmd(pmd, pfn_pmd(pfn, init_prot));
    66. else
    67. set_pmd(pmd, pfn_pmd(pfn, prot));
    68. pfn += PTRS_PER_PTE;
    69. continue;
    70. }
    71. pte = one_page_table_init(pmd); //创建一个页表
    72. //得到pfn在page table中的偏移并定位到具体的pte
    73. pte_ofs = pte_index((pfn<<PAGE_SHIFT) + PAGE_OFFSET);
    74. pte += pte_ofs;
    75. //由pte开始遍历page table
    76. for (; pte_ofs < PTRS_PER_PTE && pfn < end_pfn;
    77. pte++, pfn++, pte_ofs++, addr += PAGE_SIZE) {
    78. pgprot_t prot = PAGE_KERNEL;
    79. /*
    80. * first pass will use the same initial
    81. * identity mapping attribute.
    82. */
    83. pgprot_t init_prot = __pgprot(PTE_IDENT_ATTR);
    84. if (__is_kernel_text(addr)) //如果处于内核代码段,权限设为可执行
    85. prot = PAGE_KERNEL_EXEC;
    86. pages_4k++;
    87. //设置pte与pfn关联
    88. if (mapping_iter == 1) {
    89. set_pte(pte, pfn_pte(pfn, init_prot)); //第一次执行将权限位设为init_prot
    90. last_map_addr = (pfn << PAGE_SHIFT) + PAGE_SIZE;
    91. } else
    92. set_pte(pte, pfn_pte(pfn, prot)); //之后的执行将权限位置为prot
    93. }
    94. }
    95. }
    96. if (mapping_iter == 1) {
    97. /*
    98. * update direct mapping page count only in the first
    99. * iteration.
    100. */
    101. update_page_count(PG_LEVEL_2M, pages_2m);
    102. update_page_count(PG_LEVEL_4K, pages_4k);
    103. /*
    104. * local global flush tlb, which will flush the previous
    105. * mappings present in both small and large page TLB's.
    106. */
    107. __flush_tlb_all(); //TLB全部刷新
    108. /*
    109. * Second iteration will set the actual desired PTE attributes.
    110. */
    111. mapping_iter = 2;
    112. goto repeat;
    113. }
    114. return last_map_addr;
    115. }

    内核的内核页全局目录的基地址保存在 swapper_pg_dir 全局变量中,但需要使用主内核页表时系统会把这个变量的值放入 cr3 寄存器,详细可参考/arch/x86/kernel/head_32.s。

    Linux 分别采用 pgd_t、pud_t、pmd_t 和 pte_t 四种数据结构来表示页全局目录项、页上级目录项、页中间目录项和页表项。这四种数据结构本质上都是无符号长整型,Linux 为了更严格数据类型检查,将无符号长整型分别封装成四种不同的页表项。如果不采用这种方法,那么一个无符号长整型数据可以传入任何一个与四种页表相关的函数或宏中,这将大大降低程序的健壮性。下面仅列出 pgd_t 类型的内核源码实现,其他类型与此类似

    1. typedef unsigned long pgdval_t;
    2. typedef struct { pgdval_t pgd; } pgd_t;
    3. #define pgd_val(x) native_pgd_val(x)
    4. static inline pgdval_t native_pgd_val(pgd_t pgd)
    5. {
    6. return pgd.pgd;
    7. }

    这里需要区别指向页表项的指针和页表项所代表的数据,如果已知一个 pgd_t 类型的指针 pgd,那么通过 pgd_val(*pgd)即可获得该页表项(也就是一个无符号长整型数据)

    PAGE_SHIFT,PMD_SHIFT,PUD_SHIFT,PGDIR_SHIFT,对应相应的页目录所能映射的区域大小的位数,如 PAGE_SHIFT 为 12,即页面大小为 4k。

    PTRS_PER_PTE, PTRS_PER_PMD, PTRS_PER_PUD, PTRS_PER_PGD,对应相应页目录中的表项数。32 位系统下,当 PAE 被禁止时,他们的值分别为 1024,,1,1 和 1024,也就是说只使用两级分页

    pgd_index(addr),pud_index,(addr),pmd_index(addr),pte_index(addr),取 addr 在该目录中的索引

    pud_offset(pgd,addr), pmd_offset(pud,addr), pte_offset(pmd,addr),以 pmd_offset 为例,线性地址 addr 对应的 pmd 索引在在 pud 指定的 pmd 表的偏移地址。在两级或三级分页系统中,pmd_offset 和 pud_offset 都返回页全局目录的地址

    至此,低端内存的物理地址和虚拟地址之间的映射关系已全部建立起来了

    回到前面的 init_memory_mapping()函数,它的最后一个函数调用为 add_pfn_range_mapped()

    1. struct range pfn_mapped[E820_MAX_ENTRIES];
    2. int nr_pfn_mapped;
    3. static void add_pfn_range_mapped(unsigned long start_pfn, unsigned long end_pfn)
    4. {
    5. nr_pfn_mapped = add_range_with_merge(pfn_mapped, E820_MAX_ENTRIES,
    6. nr_pfn_mapped, start_pfn, end_pfn);
    7. nr_pfn_mapped = clean_sort_range(pfn_mapped, E820_MAX_ENTRIES);
    8. max_pfn_mapped = max(max_pfn_mapped, end_pfn);
    9. if (start_pfn < (1UL<<(32-PAGE_SHIFT)))
    10. max_low_pfn_mapped = max(max_low_pfn_mapped,
    11. min(end_pfn, 1UL<<(32-PAGE_SHIFT)));
    12. }

    该函数主要是将前面完成内存映射的物理页框范围加入到全局数组pfn_mapped中,其中 nr_pfn_mapped 用于表示数组中的有效项数量,之后可以通过内核函数 pfn_range_is_mapped 来判断指定的物理内存是否被映射,避免重复映射的情况

    固定映射区初始化

    再回到更前面的 init_mem_mapping()函数,early_ioremap_page_table_range_init()用来建立高端内存的固定映射区页表,与低端内存的页表初始化不同的是,固定映射区的页表只是被分配,相应的 PTE 项并未初始化,这个工作交由后面的set_fixmap()函数将相关的固定映射区页表与物理内存进行关联

    1. # define PMD_MASK (~(PMD_SIZE - 1))
    2. void __init early_ioremap_page_table_range_init(void)
    3. {
    4. pgd_t *pgd_base = swapper_pg_dir;
    5. unsigned long vaddr, end;
    6. /*
    7. * Fixed mappings, only the page table structure has to be
    8. * created - mappings will be set by set_fixmap():
    9. */
    10. vaddr = __fix_to_virt(__end_of_fixed_addresses - 1) & PMD_MASK;
    11. end = (FIXADDR_TOP + PMD_SIZE - 1) & PMD_MASK;
    12. page_table_range_init(vaddr, end, pgd_base);
    13. early_ioremap_reset();
    14. }

    PUD_MASK、PMD_MASK、PGDIR_MASK,这些 MASK 的作用是:从给定地址中提取某些分量,用给定地址与对应的 MASK 位与操作之后即可获得各个分量,上面的操作为屏蔽低位

    这里可以先具体看一下固定映射区的组成

    每个固定映射区索引都以枚举类型的形式定义在 enum fixed_addresses 中

    1. enum fixed_addresses {
    2. #ifdef CONFIG_X86_32
    3. FIX_HOLE,
    4. #else
    5. #ifdef CONFIG_X86_VSYSCALL_EMULATION
    6. VSYSCALL_PAGE = (FIXADDR_TOP - VSYSCALL_ADDR) >> PAGE_SHIFT,
    7. #endif
    8. #endif
    9. FIX_DBGP_BASE,
    10. FIX_EARLYCON_MEM_BASE,
    11. #ifdef CONFIG_PROVIDE_OHCI1394_DMA_INIT
    12. FIX_OHCI1394_BASE,
    13. #endif
    14. #ifdef CONFIG_X86_LOCAL_APIC
    15. FIX_APIC_BASE, /* local (CPU) APIC) -- required for SMP or not */
    16. #endif
    17. #ifdef CONFIG_X86_IO_APIC
    18. FIX_IO_APIC_BASE_0,
    19. FIX_IO_APIC_BASE_END = FIX_IO_APIC_BASE_0 + MAX_IO_APICS - 1,
    20. #endif
    21. #ifdef CONFIG_X86_32
    22. //这里即为固定映射区
    23. FIX_KMAP_BEGIN, /* reserved pte's for temporary kernel mappings */
    24. FIX_KMAP_END = FIX_KMAP_BEGIN+(KM_TYPE_NR*NR_CPUS)-1,
    25. #ifdef CONFIG_PCI_MMCONFIG
    26. FIX_PCIE_MCFG,
    27. #endif
    28. #endif
    29. #ifdef CONFIG_PARAVIRT_XXL
    30. FIX_PARAVIRT_BOOTMAP,
    31. #endif
    32. #ifdef CONFIG_X86_INTEL_MID
    33. FIX_LNW_VRTC,
    34. #endif
    35. #ifdef CONFIG_ACPI_APEI_GHES
    36. /* Used for GHES mapping from assorted contexts */
    37. FIX_APEI_GHES_IRQ,
    38. FIX_APEI_GHES_NMI,
    39. #endif
    40. __end_of_permanent_fixed_addresses,
    41. /*
    42. * 512 temporary boot-time mappings, used by early_ioremap(),
    43. * before ioremap() is functional.
    44. *
    45. * If necessary we round it up to the next 512 pages boundary so
    46. * that we can have a single pmd entry and a single pte table:
    47. */
    48. #define NR_FIX_BTMAPS 64
    49. #define FIX_BTMAPS_SLOTS 8
    50. #define TOTAL_FIX_BTMAPS (NR_FIX_BTMAPS * FIX_BTMAPS_SLOTS)
    51. FIX_BTMAP_END =
    52. (__end_of_permanent_fixed_addresses ^
    53. (__end_of_permanent_fixed_addresses + TOTAL_FIX_BTMAPS - 1)) &
    54. -PTRS_PER_PTE
    55. ? __end_of_permanent_fixed_addresses + TOTAL_FIX_BTMAPS -
    56. (__end_of_permanent_fixed_addresses & (TOTAL_FIX_BTMAPS - 1))
    57. : __end_of_permanent_fixed_addresses,
    58. FIX_BTMAP_BEGIN = FIX_BTMAP_END + TOTAL_FIX_BTMAPS - 1,
    59. #ifdef CONFIG_X86_32
    60. FIX_WP_TEST,
    61. #endif
    62. #ifdef CONFIG_INTEL_TXT
    63. FIX_TBOOT_BASE,
    64. #endif
    65. __end_of_fixed_addresses
    66. };
    67. #define __fix_to_virt(x) (FIXADDR_TOP - ((x) << PAGE_SHIFT))

    一个索引对应一个 4KB 的页框,固定映射区的结束地址为 FIXADDR_TOP,即 0xfffff000(4G-4K),固定映射区是反向生长的,也就是说第一个索引对应的地址离 FIXADDR_TOP 最近。另外宏__fix_to_virt(idx)可以通过索引来计算相应的固定映射区域的线性地址

    1. //初始化pgd_base指向的页全局目录中startend这个范围的线性地址,整个函数结束后只是初始化好了页中间目录项对应的页表,但是页表中的页表项并没有初始化
    2. static void __init
    3. page_table_range_init(unsigned long start, unsigned long end, pgd_t *pgd_base)
    4. {
    5. int pgd_idx, pmd_idx;
    6. unsigned long vaddr;
    7. pgd_t *pgd;
    8. pmd_t *pmd;
    9. pte_t *pte = NULL;
    10. unsigned long count = page_table_range_init_count(start, end);
    11. void *adr = NULL;
    12. if (count)
    13. adr = alloc_low_pages(count);
    14. vaddr = start;
    15. pgd_idx = pgd_index(vaddr); //得到vaddr对应的pgd索引
    16. pmd_idx = pmd_index(vaddr); //得到vaddr对应的pmd索引
    17. pgd = pgd_base + pgd_idx; //得到pgd项
    18. for ( ; (pgd_idx < PTRS_PER_PGD) && (vaddr != end); pgd++, pgd_idx++) {
    19. pmd = one_md_table_init(pgd); //得到pmd起始项
    20. pmd = pmd + pmd_index(vaddr); //得到偏移后的pmd
    21. for (; (pmd_idx < PTRS_PER_PMD) && (vaddr != end);
    22. pmd++, pmd_idx++) {
    23. //建立pte表并检查vaddr是否对应内核临时映射区,若是则重新申请一个页表来保存pte表
    24. pte = page_table_kmap_check(one_page_table_init(pmd),
    25. pmd, vaddr, pte, &adr);
    26. vaddr += PMD_SIZE;
    27. }
    28. pmd_idx = 0;
    29. }
    30. }

    先看 page_table_range_init_count 函数

    1. static unsigned long __init
    2. page_table_range_init_count(unsigned long start, unsigned long end)
    3. {
    4. unsigned long count = 0;
    5. #ifdef CONFIG_HIGHMEM
    6. int pmd_idx_kmap_begin = fix_to_virt(FIX_KMAP_END) >> PMD_SHIFT;
    7. int pmd_idx_kmap_end = fix_to_virt(FIX_KMAP_BEGIN) >> PMD_SHIFT;
    8. int pgd_idx, pmd_idx;
    9. unsigned long vaddr;
    10. if (pmd_idx_kmap_begin == pmd_idx_kmap_end)
    11. return 0;
    12. vaddr = start;
    13. pgd_idx = pgd_index(vaddr);
    14. pmd_idx = pmd_index(vaddr);
    15. for ( ; (pgd_idx < PTRS_PER_PGD) && (vaddr != end); pgd_idx++) {
    16. for (; (pmd_idx < PTRS_PER_PMD) && (vaddr != end);
    17. pmd_idx++) {
    18. if ((vaddr >> PMD_SHIFT) >= pmd_idx_kmap_begin &&
    19. (vaddr >> PMD_SHIFT) <= pmd_idx_kmap_end)
    20. count++;
    21. vaddr += PMD_SIZE;
    22. }
    23. pmd_idx = 0;
    24. }
    25. #endif
    26. return count;
    27. }

    page_table_range_init_count()用来计算临时映射区间的页表数量。FIXADDR_START 到 FIXADDR_TOP 即整个固定映射区,就如上面所提到的里面有多个索引标识的不同功能的映射区间,而其中的一个区间FIX_KMAP_BEGIN 到 FIX_KMAP_END 是临时映射区间。这里再看一下两者的定义:

    1. FIX_KMAP_BEGIN, /* reserved pte's for temporary kernel mappings */
    2. FIX_KMAP_END = FIX_KMAP_BEGIN+(KM_TYPE_NR*NR_CPUS)-1,

    固定映射是在编译时就确定的地址空间,但是它对应的物理页可以是任意的,每一个固定地址中的项都是一页范围,这些地址的用途是固定的,这是该区间被设计的最主要的用途。临时映射区间也叫原子映射,它可以用在不能睡眠的地方,如中断处理程序中,因为临时映射获取映射时是绝对不会阻塞的,上面的 KM_TYPE_NR 可以理解为临时内核映射的最大数量,NR_CPUS 则表示 CPU 数量。

    如果返回的页表数量不为 0,则 page_table_range_init()函数还会调用 alloc_low_pages():

    1. __ref void *alloc_low_pages(unsigned int num)
    2. {
    3. unsigned long pfn;
    4. int i;
    5. if (after_bootmem) {
    6. unsigned int order;
    7. order = get_order((unsigned long)num << PAGE_SHIFT);
    8. return (void *)__get_free_pages(GFP_ATOMIC | __GFP_ZERO, order);
    9. }
    10. if ((pgt_buf_end + num) > pgt_buf_top || !can_use_brk_pgt) {
    11. unsigned long ret = 0;
    12. if (min_pfn_mapped < max_pfn_mapped) {
    13. ret = memblock_find_in_range(
    14. min_pfn_mapped << PAGE_SHIFT,
    15. max_pfn_mapped << PAGE_SHIFT,
    16. PAGE_SIZE * num , PAGE_SIZE);
    17. }
    18. if (ret)
    19. memblock_reserve(ret, PAGE_SIZE * num);
    20. else if (can_use_brk_pgt)
    21. ret = __pa(extend_brk(PAGE_SIZE * num, PAGE_SIZE));
    22. if (!ret)
    23. panic("alloc_low_pages: can not alloc memory");
    24. pfn = ret >> PAGE_SHIFT;
    25. } else {
    26. pfn = pgt_buf_end;
    27. pgt_buf_end += num;
    28. }
    29. for (i = 0; i < num; i++) {
    30. void *adr;
    31. adr = __va((pfn + i) << PAGE_SHIFT);
    32. clear_page(adr);
    33. }
    34. return __va(pfn << PAGE_SHIFT);
    35. }

    alloc_low_pages函数根据前面 early_alloc_pgt_buf()申请保留的页表缓冲空间使用情况来判断是从页表缓冲空间中申请内存还是通过 memblock 算法申请页表内存,页表缓冲空间空间足够的话就在页表缓冲空间中分配。

    回到 page_table_range_init(),其中one_md_table_init()是用于申请新物理页作为页中间目录的,不过这里分析的是 x86 非 PAE 环境,不存在页中间目录,因此实际上返回的仍是入参,代码如下:

    1. static pmd_t * __init one_md_table_init(pgd_t *pgd)
    2. {
    3. p4d_t *p4d;
    4. pud_t *pud;
    5. pmd_t *pmd_table;
    6. #ifdef CONFIG_X86_PAE
    7. if (!(pgd_val(*pgd) & _PAGE_PRESENT)) {
    8. pmd_table = (pmd_t *)alloc_low_page();
    9. paravirt_alloc_pmd(&init_mm, __pa(pmd_table) >> PAGE_SHIFT);
    10. set_pgd(pgd, __pgd(__pa(pmd_table) | _PAGE_PRESENT));
    11. p4d = p4d_offset(pgd, 0);
    12. pud = pud_offset(p4d, 0);
    13. BUG_ON(pmd_table != pmd_offset(pud, 0));
    14. return pmd_table;
    15. }
    16. #endif
    17. p4d = p4d_offset(pgd, 0);
    18. pud = pud_offset(p4d, 0);
    19. pmd_table = pmd_offset(pud, 0);
    20. return pmd_table;
    21. }

    接着的是page_table_kmap_check(),其入参调用的one_page_table_init()是用于当入参 pmd 没有页表指向时,创建页表并使其指向被创建的页表。

    1. static pte_t * __init one_page_table_init(pmd_t *pmd)
    2. {
    3. if (!(pmd_val(*pmd) & _PAGE_PRESENT)) {
    4. pte_t *page_table = (pte_t *)alloc_low_page();
    5. paravirt_alloc_pte(&init_mm, __pa(page_table) >> PAGE_SHIFT);
    6. set_pmd(pmd, __pmd(__pa(page_table) | _PAGE_TABLE));
    7. BUG_ON(page_table != pte_offset_kernel(pmd, 0));
    8. }
    9. return pte_offset_kernel(pmd, 0);
    10. }

    page_table_kmap_check()的实现如下:

    1. #define PTRS_PER_PTE 512
    2. static pte_t *__init page_table_kmap_check(pte_t *pte, pmd_t *pmd,
    3. unsigned long vaddr, pte_t *lastpte,
    4. void **adr)
    5. {
    6. #ifdef CONFIG_HIGHMEM
    7. /*
    8. * Something (early fixmap) may already have put a pte
    9. * page here, which causes the page table allocation
    10. * to become nonlinear. Attempt to fix it, and if it
    11. * is still nonlinear then we have to bug.
    12. */
    13. //得到内核固定映射区的临时映射区的起始和结束虚拟页框号
    14. int pmd_idx_kmap_begin = fix_to_virt(FIX_KMAP_END) >> PMD_SHIFT;
    15. int pmd_idx_kmap_end = fix_to_virt(FIX_KMAP_BEGIN) >> PMD_SHIFT;
    16. if (pmd_idx_kmap_begin != pmd_idx_kmap_end
    17. && (vaddr >> PMD_SHIFT) >= pmd_idx_kmap_begin
    18. && (vaddr >> PMD_SHIFT) <= pmd_idx_kmap_end) {
    19. pte_t *newpte;
    20. int i;
    21. BUG_ON(after_bootmem);
    22. newpte = *adr;
    23. //拷贝操作
    24. for (i = 0; i < PTRS_PER_PTE; i++)
    25. set_pte(newpte + i, pte[i]);
    26. *adr = (void *)(((unsigned long)(*adr)) + PAGE_SIZE);
    27. paravirt_alloc_pte(&init_mm, __pa(newpte) >> PAGE_SHIFT);
    28. set_pmd(pmd, __pmd(__pa(newpte)|_PAGE_TABLE)); //pmd与newpte表进行关联
    29. BUG_ON(newpte != pte_offset_kernel(pmd, 0));
    30. __flush_tlb_all();
    31. paravirt_release_pte(__pa(pte) >> PAGE_SHIFT);
    32. pte = newpte;
    33. }
    34. BUG_ON(vaddr < fix_to_virt(FIX_KMAP_BEGIN - 1)
    35. && vaddr > fix_to_virt(FIX_KMAP_END)
    36. && lastpte && lastpte + PTRS_PER_PTE != pte);
    37. #endif
    38. return pte;
    39. }

    检查当前页表初始化的地址是否处于该区间范围,如果是,则把其 pte 页表的内容拷贝到 page_table_range_init()的 alloc_low_pages 申请的页表空间中(这里的拷贝主要是为了保证连续性),并将 newpte 新页表的地址设置到 pmd 中(32bit 系统实际上就是页全局目录),然后调用__flush_tlb_all()刷新 TLB 缓存;如果不是该区间,则仅是由入参中调用的 one_page_table_init()被分配到了页表空间。

    至此高端内存的固定映射区的页表分配完成,后面的 paging_init()会负责完成剩下的页表建立工作。

  • 相关阅读:
    传输层协议--UDP
    关于LWIP的一点记录(二)
    大文件上传
    【SimpleFunction系列二.2】SpringBoot注解整合Redisson分布式锁
    pytorch编程用法记录
    测试管理 | 龙智获得Xray专家认证
    oracle数据回显时候递归实战
    如何开发LAXCUS分布式应用软件(四)
    DocuWare 移动劳动力解决方案可帮助您构建新的生产力模式:随时随地、任何设备
    供应链平台 采购信息监控更新提醒
  • 原文地址:https://blog.csdn.net/weixin_52183917/article/details/127887532