arm linux kernel 从入口到start_kernel 的代码分析
2012-10-29 15:23
477 查看
最近研究了一下arm linux的入口部分的代码, code不是太多,所以写了个笔记,详细的分析了每一条语句. 大家看看, 交流一下. 下面使正文. 由于内容比较多,分几层楼发吧 ____________________________________________________________________________________ 本文针对arm linux, 从kernel的第一条指令开始分析,一直分析到进入start_kernel()函数. 我们当前以linux-2.6.19内核版本作为范例来分析,本文中所有的代码,前面都会加上行号以便于和源码进行对照, 例: 在文件init/main.c中: 00478: asmlinkage void __init start_kernel(void) 前面的"00478:" 表示478行,冒号后面的内容就是源码了. 在分析代码的过程中,我们使用缩进来表示各个代码的调用层次. 由于启动部分有一些代码是平台特定的,虽然大部分的平台所实现的功能都比较类似,但是为了更好的对code进行说明,对于平台相关的代码,我们选择at91(ARM926EJS)平台进行分析. 另外,本文是以uncompressed kernel开始讲解的.对于内核解压缩部分的code,在 arch/arm/boot/compressed中,本文不做讨论.
arch/arm/kernel/head.S中: 00075: mrc p15, 0, r9, c0, c0 @ get processor id 00076: bl __lookup_processor_type @ r5=procinfo r9=cpuid 00077: movs r10, r5 @ invalid processor (r5=0)? 00078: beq __error_p @ yes, error 'p' 75行: 通过cp15协处理器的c0寄存器来获得processor id的指令. 关于cp15的详细内容可参考相关的arm手册 76行: 跳转到__lookup_processor_type.在__lookup_processor_type中,会把processor type 存储在r5中 77,78行: 判断r5中的processor type是否是0,如果是0,说明是无效的processor type,跳转到__error_p(出错) __lookup_processor_type 函数主要是根据从cpu中获得的processor id和系统中的proc_info进行匹配,将匹配到的proc_info_list的基地址存到r5中, 0表示没有找到对应的processor type. 下面我们分析__lookup_processor_type函数 arch/arm/kernel/head-common.S中: 00145: .type __lookup_processor_type, %function 00146: __lookup_processor_type: 00147: adr r3, 3f 00148: ldmda r3, {r5 - r7} 00149: sub r3, r3, r7 @ get offset between virt&phys 00150: add r5, r5, r3 @ convert virt addresses to 00151: add r6, r6, r3 @ physical address space 00152: 1: ldmia r5, {r3, r4} @ value, mask 00153: and r4, r4, r9 @ mask wanted bits 00154: teq r3, r4 00155: beq 2f 00156: add r5, r5, #PROC_INFO_SZ @ sizeof(proc_info_list) 00157: cmp r5, r6 00158: blo 1b 00159: mov r5, #0 @ unknown processor 00160: 2: mov pc, lr 00161: 00162: /* 00163: * This provides a C-API version of the above function. 00164: */ 00165: ENTRY(lookup_processor_type) 00166: stmfd sp!, {r4 - r7, r9, lr} 00167: mov r9, r0 00168: bl __lookup_processor_type 00169: mov r0, r5 00170: ldmfd sp!, {r4 - r7, r9, pc} 00171: 00172: /* 00173: * Look in include/asm-arm/procinfo.h and arch/arm/kernel/arch.[ch] for 00174: * more information about the __proc_info and __arch_info structures. 00175: */ 00176: .long __proc_info_begin 00177: .long __proc_info_end 00178: 3: .long . 00179: .long __arch_info_begin 00180: .long __arch_info_end 145, 146行是函数定义 147行: 取地址指令,这里的3f是向前symbol名称是3的位置,即第178行,将该地址存入r3. 这里需要注意的是,adr指令取址,获得的是基于pc的一个地址,要格外注意,这个地址是3f处的"运行时地址",由于此时MMU还没有打开,也可以理解成物理地址(实地址).(详细内容可参考arm指令手册) 148行: 因为r3中的地址是178行的位置的地址,因而执行完后: r5存的是176行符号 __proc_info_begin的地址; r6存的是177行符号 __proc_info_end的地址; r7存的是3f处的地址. 这里需要注意链接地址和运行时地址的区别. r3存储的是运行时地址(物理地址),而r7中存储的是链接地址(虚拟地址). __proc_info_begin和__proc_info_end是在arch/arm/kernel/vmlinux.lds.S中: 00031: __proc_info_begin = .; 00032: *(.proc.info.init) 00033: __proc_info_end = .; 这里是声明了两个变量:__proc_info_begin 和 __proc_info_end,其中等号后面的"."是location counter(详细内容请参考ld.info) 这三行的意思是: __proc_info_begin 的位置上,放置所有文件中的 ".proc.info.init" 段的内容,然后紧接着是 __proc_info_end 的位置. kernel 使用struct proc_info_list来描述processor type. 在 include/asm-arm/procinfo.h 中: 00029: struct proc_info_list { 00030: unsigned int cpu_val; 00031: unsigned int cpu_mask; 00032: unsigned long __cpu_mm_mmu_flags; /* used by head.S */ 00033: unsigned long __cpu_io_mmu_flags; /* used by head.S */ 00034: unsigned long __cpu_flush; /* used by head.S */ 00035: const char *arch_name; 00036: const char *elf_name; 00037: unsigned int elf_hwcap; 00038: const char *cpu_name; 00039: struct processor *proc; 00040: struct cpu_tlb_fns *tlb; 00041: struct cpu_user_fns *user; 00042: struct cpu_cache_fns *cache; 00043: }; 我们当前以at91为例,其processor是926的. 在arch/arm/mm/proc-arm926.S 中: 00464: .section ".proc.info.init", #alloc, #execinstr 00465: 00466: .type __arm926_proc_info,#object 00467: __arm926_proc_info: 00468: .long 0x41069260 @ ARM926EJ-S (v5TEJ) 00469: .long 0xff0ffff0 00470: .long PMD_TYPE_SECT | \ 00471: PMD_SECT_BUFFERABLE | \ 00472: PMD_SECT_CACHEABLE | \ 00473: PMD_BIT4 | \ 00474: PMD_SECT_AP_WRITE | \ 00475: PMD_SECT_AP_READ 00476: .long PMD_TYPE_SECT | \ 00477: PMD_BIT4 | \ 00478: PMD_SECT_AP_WRITE | \ 00479: PMD_SECT_AP_READ 00480: b __arm926_setup 00481: .long cpu_arch_name 00482: .long cpu_elf_name 00483: .long HWCAP_SWP|HWCAP_HALF|HWCAP_THUMB|HWCAP_FAST_MULT|HWCAP_VFP|HWCAP_EDSP|HWCAP_JAVA 00484: .long cpu_arm926_name 00485: .long arm926_processor_functions 00486: .long v4wbi_tlb_fns 00487: .long v4wb_user_fns 00488: .long arm926_cache_fns 00489: .size __arm926_proc_info, . - __arm926_proc_info 从464行,我们可以看到 __arm926_proc_info 被放到了".proc.info.init"段中. 对照struct proc_info_list,我们可以看到 __cpu_flush的定义是在480行,即__arm926_setup.(我们将在"4. 调用平台特定的__cpu_flush函数"一节中详细分析这部分的内容.) 从以上的内容我们可以看出: r5中的__proc_info_begin是proc_info_list的起始地址, r6中的__proc_info_end是proc_info_list的结束地址. 149行: 从上面的分析我们可以知道r3中存储的是3f处的物理地址,而r7存储的是3f处的虚拟地址,这一行是计算当前程序运行的物理地址和虚拟地址的差值,将其保存到r3中. 150行: 将r5存储的虚拟地址(__proc_info_begin)转换成物理地址 151行: 将r6存储的虚拟地址(__proc_info_end)转换成物理地址 152行: 对照struct proc_info_list,可以得知,这句是将当前proc_info的cpu_val和cpu_mask分别存r3, r4中 153行: r9中存储了processor id(arch/arm/kernel/head.S中的75行),与r4的cpu_mask进行逻辑与操作,得到我们需要的值 154行: 将153行中得到的值与r3中的cpu_val进行比较 155行: 如果相等,说明我们找到了对应的processor type,跳到160行,返回 156行: (如果不相等) , 将r5指向下一个proc_info, 157行: 和r6比较,检查是否到了__proc_info_end. 158行: 如果没有到__proc_info_end,表明还有proc_info配置,返回152行继续查找 159行: 执行到这里,说明所有的proc_info都匹配过了,但是没有找到匹配的,将r5设置成0(unknown processor) 160行: 返回
通过前面的两步,我们已经确定了processor type 和 machine type. 此时,一些特定寄存器的值如下所示: r8 = machine info (struct machine_desc的基地址) r9 = cpu id (通过cp15协处理器获得的cpu id) r10 = procinfo (struct proc_info_list的基地址) 创建页表是通过函数 __create_page_tables 来实现的. 这里,我们使用的是arm的L1主页表,L1主页表也称为段页表(section page table) L1 主页表将4 GB 的地址空间分成若干个1 MB的段(section),因此L1页表包含4096个页表项(section entry). 每个页表项是32 bits(4 bytes) 因而L1主页表占用 4096 *4 = 16k的内存空间. 对于ARM926,其L1 section entry的格式为 可参考arm926EJS TRM): 下面我们来分析 __create_page_tables 函数: 在 arch/arm/kernel/head.S 中: 00206: .type __create_page_tables, %function 00207: __create_page_tables: 00208: pgtbl r4 @ page table address 00209: 00210: /* 00211: * Clear the 16K level 1 swapper page table 00212: */ 00213: mov r0, r4 00214: mov r3, #0 00215: add r6, r0, #0x4000 00216: 1: str r3, [r0], #4 00217: str r3, [r0], #4 00218: str r3, [r0], #4 00219: str r3, [r0], #4 00220: teq r0, r6 00221: bne 1b 00222: 00223: ldr r7, [r10, #PROCINFO_MM_MMUFLAGS] @ mm_mmuflags 00224: 00225: /* 00226: * Create identity mapping for first MB of kernel to 00227: * cater for the MMU enable. This identity mapping 00228: * will be removed by paging_init(). We use our current program 00229: * counter to determine corresponding section base address. 00230: */ 00231: mov r6, pc, lsr #20 @ start of kernel section 00232: orr r3, r7, r6, lsl #20 @ flags + kernel base 00233: str r3, [r4, r6, lsl #2] @ identity mapping 00234: 00235: /* 00236: * Now setup the pagetables for our kernel direct 00237: * mapped region. 00238: */ 00239: add r0, r4, #(TEXTADDR & 0xff000000) >> 18 @ start of kernel 00240: str r3, [r0, #(TEXTADDR & 0x00f00000) >> 18]! 00241: 00242: ldr r6, =(_end - PAGE_OFFSET - 1) @ r6 = number of sections 00243: mov r6, r6, lsr #20 @ needed for kernel minus 1 00244: 00245: 1: add r3, r3, #1 << 20 00246: str r3, [r0, #4]! 00247: subs r6, r6, #1 00248: bgt 1b 00249: 00250: /* 00251: * Then map first 1MB of ram in case it contains our boot params. 00252: */ 00253: add r0, r4, #PAGE_OFFSET >> 18 00254: orr r6, r7, #PHYS_OFFSET 00255: str r6, [r0] ... 00314: mov pc, lr 00315: .ltorg 206, 207行: 函数声明 208行: 通过宏 pgtbl 将r4设置成页表的基地址(物理地址) 宏pgtbl 在 arch/arm/kernel/head.S 中: 00042: .macro pgtbl, rd 00043: ldr \rd, =(__virt_to_phys(KERNEL_RAM_ADDR - 0x4000)) 00044: .endm 可以看到,页表是位于 KERNEL_RAM_ADDR 下面 16k 的位置 宏 __virt_to_phys 是在incude/asm-arm/memory.h 中: 00125: #ifndef __virt_to_phys 00126: #define __virt_to_phys(x) ((x) - PAGE_OFFSET + PHYS_OFFSET) 00127: #define __phys_to_virt(x) ((x) - PHYS_OFFSET + PAGE_OFFSET) 00128: #endif 下面从213行 - 221行, 是将这16k 的页表清0. 213行: r0 = r4, 将页表基地址存在r0中 214行: 将 r3 置成0 215行: r6 = 页表基地址 + 16k, 可以看到这是页表的尾地址 216 - 221 行: 循环,从 r0 到 r6 将这16k页表用0填充. 223行: 获得proc_info_list的__cpu_mm_mmu_flags的值,并存储到 r7中. (宏PROCINFO_MM_MMUFLAGS是在arch/arm/kernel/asm-offset.c中定义) 231行: 通过pc值的高12位(右移20位),得到kernel的section,并存储到r6中.因为当前是通过运行时地址得到的kernel的section,因而是物理地址. 232行: r3 = r7 | (r6 << 20); flags + kernel base,得到页表中需要设置的值. 233行: 设置页表: mem[r4 + r6 * 4] = r3 这里,因为页表的每一项是32 bits(4 bytes),所以要乘以4(<<2). 上面这三行,设置了kernel的第一个section(物理地址所在的page entry)的页表项 239, 240行: TEXTADDR是内核的起始虚拟地址(0xc0008000), 这两行是设置kernel起始虚拟地址的页表项(注意,这里设置的页表项和上面的231 - 233行设置的页表项是不同的 ) 执行完后,r0指向kernel的第2个section的虚拟地址所在的页表项. /* TODO: 这两行的code很奇怪,为什么要先取TEXTADDR的高8位(Bit[31:24])0xff000000,然后再取后面的8位(Bit[23:20])0x00f00000*/ 242行: 这一行计算kernel镜像的大小(bytes). _end 是在vmlinux.lds.S中162行定义的,标记kernel的结束位置(虚拟地址): 00158 .bss : { 00159 __bss_start = .; /* BSS */ 00160 *(.bss) 00161 *(COMMON) 00162 _end = .; 00163 } kernel的size = _end - PAGE_OFFSET -1, 这里 减1的原因是因为 _end 是 location counter,它的地址是kernel镜像后面的一个byte的地址. 243行: 地址右移20位,计算出kernel有多少sections,并将结果存到r6中 245 - 248行: 这几行用来填充kernel所有section虚拟地址对应的页表项. 253行: 将r0设置为RAM第一兆虚拟地址的页表项地址(page entry) 254行: r7中存储的是mmu flags, 逻辑或上RAM的起始物理地址,得到RAM第一个MB页表项的值. 255行: 设置RAM的第一个MB虚拟地址的页表. 上面这三行是用来设置RAM中第一兆虚拟地址的页表. 之所以要设置这个页表项的原因是RAM的第一兆内存中可能存储着boot params. 这样,kernel所需要的基本的页表我们都设置完了, 如下图所示:
开启mmu是又函数 __enable_mmu 实现的. 在进入 __enable_mmu 的时候, r0中已经存放了控制寄存器c1的一些配置(在上一步中进行的设置), 但是并没有真正的打开mmu, 在 __enable_mmu 中,我们将打开mmu. 此时,一些特定寄存器的值如下所示: r0 = c1 parameters (用来配置控制寄存器的参数) r4 = pgtbl (page table 的物理基地址) r8 = machine info (struct machine_desc的基地址) r9 = cpu id (通过cp15协处理器获得的cpu id) r10 = procinfo (struct proc_info_list的基地址) 在 arch/arm/kernel/head.S 中: 00146: .type __enable_mmu, %function 00147: __enable_mmu: 00148: #ifdef CONFIG_ALIGNMENT_TRAP 00149: orr r0, r0, #CR_A 00150: #else 00151: bic r0, r0, #CR_A 00152: #endif 00153: #ifdef CONFIG_CPU_DCACHE_DISABLE 00154: bic r0, r0, #CR_C 00155: #endif 00156: #ifdef CONFIG_CPU_BPREDICT_DISABLE 00157: bic r0, r0, #CR_Z 00158: #endif 00159: #ifdef CONFIG_CPU_ICACHE_DISABLE 00160: bic r0, r0, #CR_I 00161: #endif 00162: mov r5, #(domain_val(DOMAIN_USER, DOMAIN_MANAGER) | \ 00163: domain_val(DOMAIN_KERNEL, DOMAIN_MANAGER) | \ 00164: domain_val(DOMAIN_TABLE, DOMAIN_MANAGER) | \ 00165: domain_val(DOMAIN_IO, DOMAIN_CLIENT)) 00166: mcr p15, 0, r5, c3, c0, 0 @ load domain access register 00167: mcr p15, 0, r4, c2, c0, 0 @ load page table pointer 00168: b __turn_mmu_on 00169: 00170: /* 00171: * Enable the MMU. This completely changes the structure of the visible 00172: * memory space. You will not be able to trace execution through this. 00173: * If you have an enquiry about this, *please* check the linux-arm-kernel 00174: * mailing list archives BEFORE sending another post to the list. 00175: * 00176: * r0 = cp#15 control register 00177: * r13 = *virtual* address to jump to upon completion 00178: * 00179: * other registers depend on the function called upon completion 00180: */ 00181: .align 5 00182: .type __turn_mmu_on, %function 00183: __turn_mmu_on: 00184: mov r0, r0 00185: mcr p15, 0, r0, c1, c0, 0 @ write control reg 00186: mrc p15, 0, r3, c0, c0, 0 @ read id reg 00187: mov r3, r3 00188: mov r3, r3 00189: mov pc, r13 第146, 147行: 函数声明 第148 - 161行: 根据相应的配置,设置r0中的相应的Bit. (r0 将用来配置控制寄存器c1) 第162 - 165行: 设置 domain 参数r5.(r5 将用来配置domain) 第166行: 配置 domain (详细信息清参考arm相关手册) 第167行: 配置页表在存储器中的位置(set ttb).这里页表的基地址是r4, 通过写cp15的c2寄存器来设置页表基地址. 第168行: 跳转到 __turn_mmu_on. 从名称我们可以猜到,下面是要真正打开mmu了. (继续向下看,我们会发现,__turn_mmu_on就下当前代码的下方,为什么要跳转一下呢? 这是有原因的. go on) 第169 - 180行: 空行和注释. 这里的注释我们可以看到, r0是cp15控制寄存器的内容, r13存储了完成后需要跳转的虚拟地址(因为完成后mmu已经打开了,都是虚拟地址了). 第181行: .algin 5 这句是cache line对齐. 我们可以看到下面一行就是 __turn_mmu_on, 之所以 第182 - 183行: __turn_mmu_on 的函数声明. 这里我们可以看到, __turn_mmu_on 是紧接着上面第168行的跳转指令的,只是中间在第181行多了一个cache line对齐. 这么做的原因是: 下面我们要进行真正的打开mmu操作了, 我们要把打开mmu的操作放到一个单独的cache line上. 而在之前的"启动条件"一节我们说了,I Cache是可以打开也可以关闭的,这里这么做的原因是要保证在I Cache打开的时候,打开mmu的操作也能正常执行. 第184行: 这是一个空操作,相当于nop. 在arm中,nop操作经常用指令 mov rd, rd 来实现. 注意: 为什么这里要有一个nop,我思考了很长时间,这里是我的猜测,可能不是正确的: 因为之前设置了页表基地址(set ttb),到下一行(185行)打开mmu操作,中间的指令序列是这样的: set ttb(第167行) branch(第168行) nop(第184行) enable mmu(第185行) 对于arm的五级流水线: fetch - decode - execute - memory - write 他们执行的情况如下图所示: 这里需要说明的是,branch操作会在3个cycle中完成,并且会导致重新取指. 从这个图我们可以看出来,在enable mmu操作取指的时候, set ttb操作刚好完成. 第185行: 写cp15的控制寄存器c1, 这里是打开mmu的操作,同时会打开cache等(根据r0相应的配置) 第186行: 读取id寄存器. 第187 - 188行: 两个nop. 第189行: 取r13到pc中,我们前面已经看到了, r13中存储的是 __switch_data (在 arch/arm/kernel/head.S 91行),下面会跳到 __switch_data. 第187,188行的两个nop是非常重要的,因为在185行打开mmu操作之后,要等到3个cycle之后才会生效,这和arm的流水线有关系. 因而,在打开mmu操作之后的加了两个nop操作.
|
相关文章推荐
- arm linux kernel 从入口到start_kernel 的代码分析
- arm linux kernel 从入口到start_kernel 代码分析
- arm linux kernel 从入口到start_kernel 的代码分析
- arm linux 从入口到start_kernel 代码分析——head.S分析——1
- arm linux 从入口到start_kernel 代码分析——head.S分析——2
- ARM linux kernel从入口到start_kernel代码分析 -- 只到machine type选中为止
- arm linux kernel 从入口到start_kernel 的代码分析
- arm linux kernel 从入口到start_kernel 的代码分析
- arm linux kernel 从入口到start_kernel 的代码分析
- arm linux 从入口到start_kernel 代码分析——head.S分析——7end
- arm linux kernel 从入口到start_kernel 的代码分析
- arm linux kernel 从入口到start_kernel 的代码分析
- arm linux kernel 从入口到start_kernel 的代码分析
- 转:arm linux kernel 从入口到start_kernel 的代码分析
- arm linux kernel 从入口到start_kernel 的代码分析
- arm linux kernel 从入口到start_kernel 的代码分析(2.6内核)
- ARM linux kernel从入口到start_kernel代码分析 -- 只到machine type选中为止
- arm linux kernel 从入口到start_kernel 的代码分析
- arm linux kernel 从入口到start_kernel 的代码分析
- arm linux kernel 从入口到start_kernel 的代码分析