内存管理 初始化(二)bootmem位图分配器建立 及 使用

本地的笔记有点长,先把bootmem位图分配器的建立 及  使用过程做下梳理。

都是代码,上面做了标注。开始的汇编部分省略了(涉及的内容不多,除了swapper_pg_dir的分配)。

该记录不会再添加说明,看下记录中的注释就明白了bootmem的建立及使用。

该记录中考虑了高端内存……

从start_kernel开始……

start_kernel()
    |---->page_address_init()
    |     考虑支持高端内存
    |     业务:初始化page_address_pool链表;
    |          将page_address_maps数组元素按索
    |          引降序插入page_address_pool链表;
    |          初始化page_address_htable数组
|
|---->setup_arch(&command_line);
    |

 

void setup_arch(char **cmdline_p)
    |---->parse_tags(tags);
          |---->parse_tag_mem32(tag)
                |---->arm_add_memory(tag->u.mem.start, 
                |           tag->u.mem.size); |---->为meminfo添加内存信息 | meminfo.bank[meminfo.
                      |         nr_banks].start = start; | meminfo.bank[meminfo.
                      |         nr_banks].size = size; | meminfo.bank[meminfo.
                      |         nr_banks].node = 0; | meminfo.nr_banks++; | |----init_mm.start_code = (unsigned long)_text; | init_mm.end_code = (unsigned long)_etext; | init_mm.end_data = (unsigned long)_edata; | init_mm.brk = (unsigned long)_end; | |---->parse_early_param() | 注意,这里也会根据boot传入的command_line中信息来修
    |     正meminfo的内存信息,此处忽略(假定command_line不含内存信息)。
|---->early_initrd(char *p) | ramdisk |---->phys_initrd_start = start; |---->phys_initrd_size = size; | |---->paging_init(mdesc); | bootmem位图分配器初始化,I/O空间、中断向量空间映射, | PKMAP空间映射初始化,"0"页面建立. |---->request_standart_resources(&meminfo, mdesc); | |---->smp_init_cpus()
|    对于2.6.34的ARM,我能说这个函数有问题么,这时做了ioremap?
| 获取核的个数,并在cpu_possible_bits上标注核的存在性 | |---->cpu_init() | 为每个核的irq、abt、und状态设置栈,每个状态只有12字节 | 栈空间(static struct stack stacks[NR_CPUS]),因为 | 基本所有的事情都在svc状态即被处理 | |---->tcm_init()//tightly coupled memory, tks gaohao || |---->early_trap_init() |---->memcpy(vectors, __vectors_start, | __vectors_end - __vectors_start); | memcpy(vectors + 0x200, __stubs_start, | __stubs_end - __stubs_start); | 拷贝中断向量 |---->memcpy(vectors + 0x1000 - kuser_sz, | __kuser_helper_start, kuser_sz); | ARM的特殊之处,为用户态进行原子操作提供接口, | 即用户态直接进入该部分(3G~4G),中断处将做 | 特别检查和相应的处理.见__kuser_helper_version | |---->memcpy(KERN_SIGRETURN_CODE, sigreturn_codes, | sizeof(sigreturn_codes)); |---->memcpy(KERN_RESTART_CODE, syscall_restart_code, | sizeof(syscall_restart_code)); | |---->flush_icache_range(vectors, vectors + PAGE_SIZE); |---->modify_domain(DOMAIN_USER, DOMAIN_CLIENT);

 

 

//paging_init 非常重要:

void pagint_init(struct machine_desc *mdesc)
    |---->build_mem_type_table()
    |     此处没有深入查看ARM的页表项,
    |     ARM的页表项和unicore不同,我的疑问在于:
    |     ARM页表项中没有提供Dirty、Accessed位,那么kswap线程进行页面回收时,
    |     它是怎样判定该操作哪些页?关于页表项就按unicore的理解,比较简单. 
    ||---->sanity_check_meminfo();
    |     以一块2G DRAM为例,前期meminfo.nr_banks = 1;
    |     开启高端内处支持,则需将meminfo分成两个bank,
    |     (为什么以bank作为变量名,DRAM的物理组成就有bank的概念,
    |      此处需要作出区分)
         |---->struct membank *bank = &meminfo.bank[0];
         |     memove(bank + 1, bank, sizef(*bank))
         |     meminfo.nr_banks++;
         |     bank[1].size -= VMALLOC_MIN - __va(bank->start);
         |     bank[1].start = __pa(VMALLOC_MIN - 1) + 1;
         |     bank[1].highmem = 1;
         |     bank->size = VMALLOC_MIN - __va(bank->start);
         |
    |---->prepare_page_table();
    |     将swapper_pg_dir处的页表清除(部分页表项已缓存在TLB中,在
    |     bootmem_init中会间接调用create_mapping(&map),其中会再次建立)
| |---->bootmem_init(); | bootmem分配器初始化. | |---->devicemaps_init(mdesc); | 为中断向量和I/O空间的虚拟与物理地址建立映射关系 | |---->kmap_init()
| 永久映射区域保留,对于ARM,该区域位于3G-4M ~ 3G
| |---->top_pmd = pmd_off_k(0xffff0000); | 记录0xffff0000相应的一级页表项地址. |---->zero_page = alloc_bootmem_low_pages(PAGE_SIZE); | 分配一个“0”页面. |---->empty_zero_page = virt_to_page(zero_page); | 管理"0"页面所对应的struct page虚拟地址. |---->__flush_dache_page(NULL, empty_zero_page);

 

 

//bootmem_init 完成位图分配器的建立,bootmem_init也使用了位图分配器进行内存分配

void bootmem_init(void)
    |---->struct meminfo *mi = &meminfo;
    |     sort(&mi->bank, mi->nr_banks, sizeof(mi->bank[0]),
    |          meminfo_cmp, NULL);
| 将meminfo中的bank数组元素按其start地址升序排序 | |---->int initrd_node = 0; | initrd_node = check_initrd(mi); | ramdisk在meminfo下的哪个bank | check_initrd(mi) |-->struct membank *bank = &mi->bank[i]; |  if (bank_phys_start(bank) <= phys_initrd_start && | end <= bank_phys_end(bank)) | initrd_node = bank->node; | | return initrd_node | |---->for_each_node(node) | UMA体系,只有一个node, 仅循环一次 | |---->find_node_limits(node, mi, &min, &node_low, &node_high); | | 此处两个bank(高、低) | | min:物理内存的最小页帧号(pfn) | | node_low:物理内存中低端内存的最大页帧号 | | node_high:物理内存中高端内存的最大页帧号 | | | | max_low:物理内存中低端内存的最大页帧号 | | max_high:物理内存中高端内存的最大页帧号 | | | |---->bootmem_init_node(node, mi, min, node_low); | | 详见后文标注; | | 业务在于:将低端内存部分与虚拟空间做固定偏移映射,而且采用一级页表完成;
| | 采集位图分配器信息,并存放在contig_page_data.bdata
| | 内,而且将位图分配器自身所占用的物理内存在位图分配器内标记为 | | 用,此位图分配器暂时只管理低端内存(依据meminfo.bank[0], | | 未使用meminfo.bank[1]).
| |
| | | |---->reserve_node_zero(&contig_page_data) | | |---->reserve_bootmem_node(pgdat, __pa(_stext), | | | _end - _stext, BOOTMEM_DEFAULT); | | | 把内核中内核所占物理内存在位图分配器中标记为被占用 | | | | | |---->reserve_bootmem_node(pgdat, __pa(swapper_pg_dir), | | | PTRS_PER_PGD * sizeof(pgd_t), BOOTMEM_DEFAULT); | | | 把0进程的一级页表所占用的物理内存标记为被占用, | | | 该一级页表是我们迄今为止惟一没有在内核编译时所占用的空间 | | | | |---->bootem_reserve_initrd(node) | | |---->res = reserve_bootmem_node(pgdat,
| | | phys_initrd_start,
| | | phys_initrd_size, BOOTMEM_EXCLUSIVE); | | | 这里有个疑问:为什么是BOOTMEM_EXCLUSIVE | | |---->initrd_start = __phys_to_virt(phys_initrd_start); | | | initrd_end = initrd_start + phys_initrd_size; | | | 文件系统的虚拟起始地址和结束地址 | | | |---->for_each_node(node) | UMA体系,只有一个node, 仅循环一次 | |---->find_node_limits(node, mi, &min, &max_low, &max_high); | | 此处两个bank(高、低) | | min:物理内存的最小页帧号(pfn) | | max_low:物理内存中低端内存的最大页帧号 | | max_high:物理内存中高端内存的最大页帧号 | | | |---->unsigned long zone_size[MAX_NR_ZONES],
    |     |         zhole_size[MAX_NR_ZONES];
| | memset(zone_size, 0, sizeof(zone_size)); | | | | zone_size[0] = max_low - min; | | ZONE_NORMAL区的页帧数 | | | | zone_size[ZONE_HIGHMEM] = max_high - max_low; | | ZONE_HIGHMEM的页帧
| |
| | memcpy(zhole_size, zone_size, sizeof(zhole_size)); | | 从zhole_size的各个区中减去各个zone_size, | | 结果是zhole_size数组元素都为0 | | | |---->free_area_init_node(node, zone_size, min, zhole_size); | | 完善contig_page_data,并调用重量级函数: | | free_area_init_core | | |---->high_memory = __va((max_low << PAGE_SHIFT) - 1) + 1; | 获取高端内存的起始虚拟地址 | |---->max_low_pfn = max_low - PHYS_PFN_OFFSET; | 低端内存所对应的页帧数 | |---->max_pfn = max_high - PHYS_PFN_OFFSET; | 总共的物理内存页帧数

 

 

void free_area_init_node(int nid, unsigned long *zones_size,
        unsigned long node_start_pfn, unsigned long *zholes_size)
    |---->pg_data_t *pgdat = &contig_page_data;
    |     pgdat->node_id = nid; (即0)
    |     pgdat->node_start_pfn = node_start_pfn;
    |         物理内存起始地址的页帧号
    |
    |---->calculate_node_totalpages(pgdat, zones_size, zholes_size);
    |     |---->totalpages = 该pgdata下的各个区(zone)所含页的页数
    |     |---->pgdat->node_spanned_pages = totalpages;
    |     |---->realtotalpages = totalpages;
    |     |---->realtotalpages -= 该pgdata下各个区(zone)所含的洞的页数
    |     |     对于连续型,实际上不存在“洞”
    |     |---->pgdat->node_present_pages = realtotalpages;
    |     |
    |---->alloc_node_mem_map(pgdat);
    |     为pglist_data建立mem_map(struct page数组)
    |     |---->start = pgdat->node_start_pfn & 
    |     |               ~(MAX_ORDER_NR_PAGES - 1); | | 因为最后要迁移到伙伴系统,因此做了调整 | | | |---->end = pgdat->node_start_pfn + pgdat->node_spanned_pages; | | end = ALIGN(end, MAX_ORDER_NR_PAGES); | | | |---->size = (end - start) * sizeof(struct page); | | 为了管理pglist所跨越的总的页数目,首先获得需要申请的 | | struct page实例的内存大小. | | | |---->struct page *map = NULL; | | map = alloc_bootmem_node(pgdat, size); | | 依bootmem位图分配器申请内存 | |__alloc_bootmem_node(pgdat, size, SMP_CACHE_BYTES,
    |     |                    __pa(MAX_DAM_ADDRESS))
| | |---->ptr = alloc_bootmem_core(pgdat->bdata, size,
    |     |  |                   align, goal, 0); | | | 若位图中出现连续的未被占用的页数满足size的要求,则将在位图中 | | | 找到的相应bit位置1(标记被占用),并将对应物理页清0,返回对应 | | | 物理页的虚拟起始地址. | | | return ptr; | | | | |---->pgdat->node_mem_map = map + (pgdat->node_start_pfn
| | - start); | | 终于为pglist_data的node_mem_map域建立好了空间,所有的
| | struct page 实例均存于该空间内. | |---->mem_map = (&contig_page_data)->node_mem_map | | |---->free_area_init_core(pgdat, zones_size, zholes_size) | |详见下文 | | 初始化pgdat下的各个zone及相关信息

 

void free_area_init_core(struct pglist_data *pgdat,
        unsigned long *zones_size, 
        unsigned long *zholes_size)
    |---->init_waitqueue_head(&pgdat->kswapd_wait);
    |     pgdat->kswapd_max_order = 0;
    |
    |---->pgdat->nr_zones = 0;
    |
    |---->for(j = 0; j < MAX_NR_ZONES; j++)
    |     依次建立pglist_data下的每个zone.
    |
    |     struct zone *zone = pgdat->node_zones + j;
    |     unsigned long size, realsize, memmap_pages;
    |     enum lru_list l;  
    |     |
    |     |---->size = zone_spanned_pages_in_node(nid, j, zones_size);
    |     |     获取该区所跨越的页的总数
    |     |     
    |     |     realsize = size - zone_absent_pages_in_node(nid, j,
    |     |                zholes_size);
    |     |     获取该区实际可用的物理页的总数(除去“洞”)
    |     |
    |     |---->memmap_pages = PAGE_ALIGN(size * sizeof(struct page))
    |     |                    >> PAGE_SHIFT;
    |     |     获取因管理该区所使用的struct page实例的内存大小
    |     |
    |     |---->realisze -= memmap_pages;
    |     |     获取该区实际可用的物理页的总数(除去管理结构所占用页数)
    |     |
    |     |---->if(!is_highmem_idx(j)) nr_kernel_pages += realsize;
    |     |     将非高端内存区中,还未被所占用的页数计入nr_kernel_pages
    |     |
    |     |---->nr_all_pages += realsize;
    |     |     将所有还未被占用的页数计入nr_all_pages
    |     |
    |     |
    |     |开始为pglist_data下的各个区建立信息
    |     |---->zone->spanned_pages = size;
    |     |     将该区跨越的页数存入pglist_data下相应的
    |     |     zone->spanned_pages.
    |     |---->zone->present_pages = realsize;
    |     |     将该区可以使用的实际页数存入pglist_data下相应的
    |     |     zone->present_pages.
    |     |---->zone->name = zones_names[j];
    |     |     为pglist_data下相应的zone添加名称
    |     |---->spin_lock_init(&zone->lock);
    |     |     spin_lock_init(&zone->lru_lock);
    |     |---->zone->zone_pgdat = pgdat;
    |     |     记录zone所在的pglist_data
    |     |---->zone->pre_priority = DEF_PRIORITY
    |     |---->zone_pcp_init(zone);
    |     |     WHAT:????????????????????
    |     |---->for_each_lru(l)
    |     |     {INIT_LIST_HEAD(&zone->lru[l].list);
    |     |      zone->reclaim_stat.nr_saved_scan[l] = 0;}
    |     |---->zone->reclaim_stat.recent_rotated[0] = 0;
    |     |     zone->reclaim_stat.recent_rotated[1] = 0;
    |     |     zone->reclaim_stat.recent_scanned[0] = 0;
    |     |     zone->reclaim_stat.recent_scanned[1] = 0;
    |     |---->memset(zone->vm_stat, 0, sizeof(zone->vm_stat);     
    |     |---->zone->flags = 0;
    |     |
    |     |---->setup_usemap(pgdat, zone, size);
    |     |     将管理该zone中的pageblock的比特位图的起始地址
    |     |     存入zone->pageblock_flags.
    |     |
    |     |---->init_currently_empty_zone(zone, zone_start_pfn,
    |     |         size, MEMMAP_EARLY);
    |     |     详见下文
    |     |     分配zone的hash资源(用于进程请求页时阻塞);
    |     |     初始化zone的free_area,以及free_area元素下
    |     |     的各类free_list.
    |     |
    |     |---->memmap_init(size, nid, j, zone_start_pfn)
    |     |     即:memmap_init_zone(size, nid, j, 
    |     |                   zone_start_pfn, MEMMAP_EARLY);
    |     |     详细见下文
    |     |     该函数的业务: 
    |     |        修正最高的页帧数highest_memap_pfn;
    |     |        获取zone所管理的页对应的struct page实例,
    |     |        在struct page中的flags中标注各种标志;
    |     |        将页所隶属的pageblock的位图标记为MIGRATE_MOVABLE;
    |     |
    |     |---->zone_start_pfn += size;
                                                                                    
                                                            

 

void memmap_init_zone(unsigned long size, int nid, 
unsigned long zone, unsigned long start_pfn, enum memmap_context context) |---->struct page *page = NULL; | unsigned long end_pfn = start_pfn + size; | unsigned long pfn = 0; | struct zone *z = NULL; | |---->if(highest_memmap_pfn < end_pfn - 1) | highest_memap_pfn = end_pfn - 1| 修正最高的页帧数 | |---->z = &NODE_DATA(nid)->node_zones[zone]; | 获取需要操作的zone | |-->for(pfn = start_pfn; pfn < end_pfn; pfn++) |-->page = pfn_to_page(pfn); | 获取页帧号所对应的struct page实例地址 | |-->set_page_links(page, zone, nid, pfn); | |-->set_page_zone(page, zone); | | 在struct page->flags中记录该页是属于哪个zone | |-->set_page_node(page, node); | | set_page_section(page, pfn_to_section_nr(pfn); | | 对于单个node,实际上无需在page->flags中 | | 存储node,section信息. | | |-->init_page_count(page) | |-->atomic_set(&page->_count, 1); | | page的访问计数,当为0时,说明page是空闲的,当大于0的时 | | 候,说明page被一个或多个进程正在使用该页或者有进程在等待该页. | | . | | |-->reset_page_mapcount(page) | |-->atomic_set(&(page)->_mapcount, -1); | | |-->SetPageReserved(page); | | 关于SetPageReserved请参阅:page-flags.h | | 定义了许多宏以及page->flags各位的意义. | | |-->INIT_LIST_HEAD(&page->lru) | | |--->set_pageblock_migratetype(page, MIGRATE_MOVABLE); | 实际上此处是先测试,若满足条件再执行,一般直接执行也没问题。
       | 我们已经知道,内存中的一些页隶属于同一个pageblock, | 而且内存所对应的zone中,已存储了管理pageblock的位图 | pageblock_flags的起始地址。此函数的任务在于将每个page | 所属于的pageblock标记为MIGRATE_MOVABLE(即:属于该 | pageblock 中的页均MIGRATE_MOVABLE)

 

void setup_usemap(struct pglist_data *pgdat,
                 struct zone *zone, unsigne long zonesize) |---->unsigned long usemapsize = usemap_size(zonesize); | 每个zone中的页按pageblock被分成几个block,一个 | pageblock所含页数为(1 << (MAX_ORDER - 1)),每个 | pageblock需要几个bit位来存储信息(这几个bit位的 | 作用,暂时不知道),usemap_size的作用就在于计算 | 该zone中的pageblock数所对应的bit位数,并转化成字节数. | |---->zone->pageblock_flags = alloc_bootmem_node(pgdat, usemapsize); | 将管理该zone中的pageblock的比特位图的起始地址 | 存入zone->pageblock_flags.

 

当对一个page做I/O操作的时候,I/O操作需要被锁住,防止不正确的数据被访问。进程在访问page前,调用wait_on_page()函数,使进程加入一个等待队列。访问完后,UnlockPage()函数解锁其他进程对page的访问。其他正在等待队列中的进程被唤 醒。每个page都可以有一个等待队列,但是太多的分离的等待队列使得花费太多的内存访问周期。替代的解决方法,就是将所有的队列放在struct zone数据结构中。    
                                                                                               
如果struct zone中只有一个队列,则当一个page unlock的时候,访问这个zone里内存page的所有休眠的进程将都被唤醒,这样就会出现拥堵(thundering herd)的问题。建立一个哈希表管理多个等待队列,能解解决这个问题,zone->wait_table就是这个哈希表。哈希表的方法可能还是会造成一些进程不必要的唤醒。
int init_currently_empty_zone(struct zone *zone,
        unsigned long zone_start_pfn,
        unsigned long size,
        enum memmap_context_context)
    |---->zone_wait_table_init(zone, size);
    |     初始化zone下的hash表(用于进程等待页资源时使用,
    |     我们可以将等待对列存放在各个struct page内,但是
    |     这样会使struct page结构体空间太大,造成浪费,
    |     因此放在了zone中,并用hash表实现).
    |     |---->zone->wait_table_hash_nr_entries = 
    |     |       wait_table_hash_nr_entries(size);
    |     |     获取所需的hash表的数组元素个数
    |     |
    |     |---->zone->wait_table_bits = 
    |     |       wait_table_bits(zone->wait_table_hash_nr_entries);
    |     |     获取值wait_table_hash_nr_entries中首个bit位值为1的序号
    |     |     (从最低位0开始记起,例如1,则获取值为0)
    |     |
    |     |---->alloc_size = zone->wait_table_hash_nr_entries *
    |     |          sizeof(wait_queue_head_t);
    |     |     获取所需的hash表的数组所需空间大小
    |     |
    |     |---->zone->wait_table = (wait_queue_head_t *)
    |     |       alloc_bootmem_node(pgdat, alloc_size);
    |     |     分配hash表数组空间
    |     |
    |     |---->init_waitqueue_head(
    |     |     zone->wait_table[0...wait_table_hash_nr_entries]);
    |     |     初始化各个队列头
    |     |
    |---->pgdat->nr_zones = zone_idx(zone) + 1;
    |     更新pgdat下的zone的数目   
    |
    |---->zone->zone_start_pfn = zone_start_pfn;
    |
    |---->zone_init_free_lists(zone);
          |-->for(order = 0; order < MAX_ORDER; order++)
          |     for(type = 0; type < MIGRATE_TYPES; type++)
          |     {INIT_LIST_HEAD(&zone->free_area[order].free_list[type]);
          |      zone->free_area[order].nr_free = 0;}
          |   可以看出,每个zone除了被分为pageblock外,
          |   还被分为数个free_area, 每个free_area又被
          |   分为不同类型的free_list,各个free_area下
          |   的各自的free_list所含的页数是下同的.
          |

 

static void bootmem_init_node(int node, struct meminfo *mi,
        unsigned int start_pfn, unsigned long end_pfn)
    |---->unsigned long boot_pfn;
    |     unsigned int boot_pages;
    |     pg_data_t *pgdat;
    |     int i;
    |
    |---->for_each_nodebank(i, mi, node)
    |     i依次取得meminfo中的bank索引
    |     struct membank *bank = &mi->bank[i];
    |     if(!bank->highmem) map_memory_bank(bank);
    |     对于低端内存所在的bank,需执行map_memory_bank(bank);
    |    
    |     map_memory_bank(bank)
          |---->struct map_desc map;
          |     map.pfn = bank_pfn_start(bank);
          |     map.virtual = __phys_to_virt(bank_phys_start(bank));
          |     map.length = banks_phys_size(bank);
          |     map.type = MT_MEMORY;
          |     create_mapping(&map);
          |     |---->此处以超页映射(低端内存,一级页表即可完成映射,
          |     |     ,减少TLB刷新)
          |
    |---->boot_pages = bootmem_bootmap_pages(end_pfn - start_pfn)
    |     对于低端内存,先用位图进行管理,获取bit位所需的页数
    |
    |---->boot_pfn = find_bootmap_pfn(node, mi, boot_pages);
    |     获取内核结束地址的页号,作为寻找位图页的起始页
    |
    |---->pg_data_t *pgdat = NODE_DATA(node);
    |---->init_bootmem_node(pgdat, boot_pfn, start_pfn, end_pfn);
          |---->init_bootmem_core(pgdat->bdata, boot_pfn, 
          |                       start_pfn, end_pfn);
| 见后文对此函数的标注 | |---->for_each_nodebank(i, mi, node) | i依次取得meminfo中的bank索引 | struct membank *bank = &mi->bank[i]; | if(!bank->highmem) | free_bootmem_node(pgdat, bank_phys_start(bank),
    |                          bank_phys_size(bank));
| 对于低端内存所在的bank,需执行free_bootmem_node | | free_bootmem_node----> | mark_bootmem_node(pgdat->bdata, start, end, 0, 0) | start为低端内存起始物理页帧号, | end为低端内存终止页帧号 |---->__free(bdata, sidx, eidx); | sidx:低端内存起始页号(需减去bdata->node_min_pfn); | eidx:低端内存终止页号(需减去bdata->node_min_pfn); | 业务:将bdata中的页图标注为未被占用 | |---->reserve_bootmem_node(pgdat, boot_pfn << PAGE_SHIFT, | boot_pages << PAGE_SHIFT, BOOTMEM_DEFAULT); | 业务:即将位图分配器自身所占用的内存标记为被占用 |---->mark_bootmem_node(pgdata->bdata, start, end, 1, 0); | start:低端内存中,位图所占用的物理内存起始页帧号 | end:低端内存中,位图所占用的物理内存终止页帧号 |---->sidx = start - bdata->node_min_pfn; | eidx = end - bdata->node_min_pfn; |---->__reserve(bdata, sidx, eidx, flags) | sidx:低端内存起始页号(需减去bdata->node_min_pfn); | eidx:低端内存终止页号(需减去bdata->node_min_pfn); | 业务:将bdata中的页图标注为被占用 |

 

 

unsigned long init_bootmem_core(bootmem_data_t *bdata,
        unsigned long mapstart, unsigned long start, unsigned long end)
    |---->bdata->node_bootmem_map = phys_to_virt(PFN_PHY(mapstart));
    |     bdata->node_bootmem_map存放位图页的虚拟地址
    |---->bdata->node_min_pfn = start;
    |     存放低端内存的起始物理页号
    |---->bdata->node_low_pfn = end;
    |     存放低端内存的结束物理页号
    |
    |---->link_bootmem(bdata);
    |     将bdata按照node_min_pfn值的升序顺序插入到bdata_list链表中
    |---->unsigned long mapsize = bootmap_bytes(end - sart);
    |     获取位图所需的字节数  
    |     memset(bdata->node_bootmem_map, 0XFF, mapsize);
    |     将位图全部标记为已被占用(后期会再做修改, 注意文件系统位置)

 

 

static void devicemaps_init(struct machine_desc *mdesc)
    |---->void *vectors = NULL;
    |     vectors = alloc_bootmem_low_pages(PAGE_SIZE);
    |     为中断向量申请内存空间,
    |     实际上仍是通过alloc_bootmem_core函数完成内存分配.
    |
    |---->for(addr = VMALLOC_END; addr; addr += PGDIR_SIZE)
    |          pmd_clear(pmd_off_k(addr))
    |     将VMALLOC_END ~ 4G的页表映射全部清除
    |---->map.pfn = __phys_to_pfn(virt_to_phys(vectors));
    |     map.virtual = CONFIG_VECTORS_BASE;
    |     map.length = PAGE_SIZE;
    |     map.type = MT_HIGH_VECTORS;
    |     create_mapping(&map);
    |     将物理地址和虚拟地址建立映射关系,此处即为:
    |     为中断向量虚拟地址寻找一个物理页面,并且建立映射关系.
    |    
    |---->mdesc->map_io()
    |     为I/O空间建立映射,注意页表中cache的属性,
    |     这部分完全和SOC设计相关,将需要建立的映射关系
    |     存放于一个struct map_desc实例数组中,调用
    |     create_mapping完成I/O空间映射.
    |---->local_flush_tlb_all();
    |     flush_cache_all();
    |     同步硬件缓存与物理内存.

 

 

 

void kmap_init(void)
    |---->pmd_t *pmd = pmd_off_k(PKMAP_BASE);
    |     获取PKMAP_BASE虚拟地址所对应的一级页表项的的地址
    |     关于PKMAP_BASE,网上有很多都说是接近4G,但是我只在
    |     X86上看到是这样,而ARM或者unicore都是:
    |     PAGE_OFFSET - PMD_SIZE 暂时不知作出改动的原因.
    |---->pte_t *pte = alloc_bootmem_low_pages(
    |          PTRS_PER_PTR * sizeof(pte_t); | PKMAP空间需做二级页表映射,此处获得二级页表的起始 | 地址. |---->__pmd_populate(pmd, __pa(pte) |
    |                    _PAGE_KERNEL_TABLE);
| 在相应的一级页表项中计入二级页表项的物理地址,并设置好 | 一级页表项的属性. |---->pkmap_page_table = pte + PTRS_PER_PTE | 记录PKMAP虚拟空间的二级页表项的物理末尾地址.

 

 

//request_stanard_resources描述地有些不准确

void request_standard_resources(struct meminfo *mi,
        struct machine_desc *mdesc)
    |---->kernel_code.start = virt_to_phys(_text);
    |     kernel_code.end = virt_to_phys(_etext - 1);
    |     kernel_data.strt = virt_to_phys(_data);
    |     kernel_data.end = virt_to_phys(_end - 1);
    |
    |---->for(i = 0; i < mi->nr_banks; i++)
    |     此处是将meminfo的资源放入iomem_resource树中,
    |     同时将内核镜像资源也放入iomem_resource树中.
    |     注意内核镜像资源如何放入.
    |
    |     struct *res = NULL;
    |     res = alloc_bootmem_low(sizeof(*res));
    |     res->name = "System RAM"
    |     res->start = mi->bank[i].start;
    |     res->end = mi->bank[i].start + mi->bank[i].size - 1;
    |     res->flags = IORESOURCE_MEM | IORESOURCE_BUSY;
    |
    |     request_resource(&iomem_resource, res)
    |     将内存资源放入iomem_resource树中.
    |     
    |     if(kernel_code.start >= res->start &&
    |        kernel_code.end <= res->end)
    |            request_resource(res, &kernel_code);
    |     if(kernel_data.start >= res->start &&
    |       kernel_data.end <= res->end)
    |            request_resource(res, &kernel_data);
    |     将内核镜像资源放入iomem_resource树中.

 

posted on 2013-09-25 22:39  阿加  阅读(2716)  评论(1编辑  收藏  举报

导航