美文网首页KVM虚拟化
PowerPC上的KVM内存虚拟化

PowerPC上的KVM内存虚拟化

作者: goldhorn | 来源:发表于2017-10-20 22:43 被阅读0次

    KVM介绍

    KVM (Kernel Virtual Machine) 是Linux Kernel的一个模块。另外还有一个用户空间的工具QEMU来控制KVM去创建、配置和管理Virtual Machine (VM)。

    KVM

    内存虚拟化是KVM实现的重要模块,通过它可以实现两个目的:

    • 提供VM的内存视图,即为Guest OS提供连续的地址空间。例如通过QEMU创建一个有256Mbytes的VM, 那么Guest OS认为物理内存的物理地址空间为0 - 0x1000 0000.
    • KVM来分配和管理实际的物理内存。内存的分配、回收、换出等都采用Linux原有的机制,不需要为KVM单独开发。Host OS为VM分配物理页面和普通进程一样,仍然遵循用时分配的原则。

    Key Acronyms

    GVA - guest virtual address
    GPA - guest physical address
    HVA - host virtual address
    HPA - host physical address
    内存虚拟化的一个重要工作就是处理这几个地址之间的转换关系

    两种实现

    目前KVM主要支持两种实现方法:

    传统方案影子页表 (Shadow Page Table)

    Guest OS维护的页表负责GVA到GPA的转换,而KVM会维护另外一套影子页表负责GVA到HPA的转换。真正被加载到物理MMU中的页表是影子页表。
    在多进程Guest OS中,每个进程有一套页表,进程切换时也需要切换页表,这个时候就需要清空整个TLB,使所有影子页表的内容无效。但是某些影子页表的内容可能很快就会被再次用到,而重建影子页表是一项十分耗时的工作,因此又需要缓存影子页表。
    缺点: 实现复杂,还需要考虑影子页表的同步;缓存影子页表的内存开销大。

    硬件辅助方案

    先介绍Freescale PowerPC e6500提供的硬件支持

    • 新增一个状态MSR[GS],用来区分当前是在Host状态(Hypervisor)还是Guest状态;
    MSR
    • LPIDR register,KVM在创建VM时会分配一个唯一的ID,当该VM运行时会将该ID写入LPIDR register

    • TLB上新增两个字段TGS和TLPID,分别用来匹配MSR[GS]和LPIDR,也就是说MMU在进行地址翻译时可以直接将虚拟机的虚拟地址GVA翻译到真实的物理地址HPA

    TLB

    问题来了,既然MMU能直接将GVA翻译为HPA,那么TLB中一定存储的是GVA–>HPA的对应关系,但是VM上的Guest OS只能看到GPA,因此tlb miss异常处理程序在重填TLB写入的只能是GVA–>GPA。如何将GVA和HPA对应起来就需要Hypervisor也就是KVM和QEMU的介入了。

    Hypervisor介入的关键流程

    1.VM上的tlb miss异常处理程序在执行tlbwe时陷入到Hypervisor中(很像异常的跳转啊)
    2.KVM根据GPA查找到HVA,然后kernel为HVA分配物理页面
    3.更新QEMU进程的页表HVA–>HPA
    4.将GVA–>HPA写入TLB
    5.返回到VM中继续执行,VM的tlb miss异常处理完成

    这个实现的问题在于每次VM写tlb时都需要陷入到Hypervisor中处理,所以e6500提供了一个硬件表LRAT来缓存GPA–>HPA,当VM上执行tlbwe时处理器先在LRAT中查找GPA,如果能找到就自动将GPA替换为HPA后写入TLB,如果LRAT miss就再陷入到Hypervisor。

    image.png

    相关代码

    在创建VM的初始化阶段,QEMU需要做的有两方面工作:

    1. QEMU根据VM的物理内存大小(-m参数)申请一段QEMU的虚拟地址空间(HVA)
    ppc500_init()
      memory_region_init_ram(ram, "mpc8544ds.ram", ram_size)
        qemu_ram_alloc(size, mr)
          posix_memalign(&ptr, alignment, size);    /* 类似malloc */
    
    1. QEMU向KVM注册用户态内存空间
    memory_region_add_subregion(address_space_mem, ram->ram_addr, ram)
      kvm_set_phys_mem()
        kvm_set_user_memory_region()
          kvm_vm_ioctl( KVM_SET_USER_MEMORY_REGION )
    

    由KVM来记录这段虚拟地址空间,即维护了GPA到HVA的对应关系

    case KVM_SET_USER_MEMORY_REGION: 
    kvm_vm_ioctl_set_memory_region()
    __kvm_set_memory_region()
    

    例如创建一个256Mbytes内存的VM,那么QEMU进程会先申请一块256Mbytes的虚拟内存(eg. HVA:0x4930 0000 - 0x5930 0000),它对应这个VM的物理内存(GPA:0 - 0x1000 0000);然后QEMU将这一组(GPA, HVA, size)通过ioctl注册到KVM中,KVM会维护一个kvm_memory_slot数组来记录GPA到HVA的对应关系。

    struct kvm_memory_slot {
        gfn_t base_gfn;
        unsigned long npages;
        unsigned long flags;
        unsigned long *dirty_bitmap;
        struct kvm_arch_memory_slot arch;
        unsigned long userspace_addr;
        int user_alloc;
        int id;
    };
    struct kvm_memslots {
        int nmemslots; 
        struct kvm_memory_slot memslots [KVM_MEMORY_SLOTS + KVM_PRIVATE_MEM_SLOTS];
    };
    

    当LRAT miss发生时:

    1. Hypervisor的异常处理程序根据GPA在kvm_memslots数组中查找到HVA;
    2. 然后调用内核的接口get_user_pages申请物理页面获得HPA,这个接口同时会更新进程的页表(这也遵循了Linux一贯的原则,和应用程序申请内存一样,都是先分配虚拟地址空间,到真正使用的时候在异常处理程序中分配真正的物理页面);
    3. 将entry (LPID, GPA, HPA, size, …)写入LRAT
         .text
         .balign     0x1000
         .globl interrupt_base_book3e
    interrupt_base_book3e:                         /* fake trap */
         EXCEPTION_STUB(0x000, machine_check)          /* 0x0200 */
         EXCEPTION_STUB(0x020, critical_input)          /* 0x0580 */
         ……
         EXCEPTION_STUB(0x300, hypercall)
         EXCEPTION_STUB(0x320, ehpriv)
         EXCEPTION_STUB(0x340, lrat_error)`
    
    exc_lrat_error_book3e
      kvmppc_handler_44_0x01B
        kvmppc_resume_host
          kvmppc_handle_exit
          case BOOKE_INTERRUPT_LRAT_ERROR:
            kvmppc_lrat_map
              gfn_to_pfn_memslot
                get_user_pages  /* 真正分配物理页面的地方 */
                write_host_lrate
    

    Conclusion

    1. GVA到GPA的映射关系由Guest OS通过页表来维护;
    2. GPA到HVA的映射关系由KVM通过Memory Slot数组来维护;
    3. HVA到HPA的映射关系由Hypervisor OS的页表来维护 ;
    4. GPA到HPA的映射关系由Hypervisor根据2和3计算出并写入LRAT;

    X86架构的内存虚拟化是通过Extended Page Table(EPT)来实现的,其原理和基本流程都一样,只不过X86始终围绕着页表,而PowerPC和MIPS则围绕着TLB。X86上内存虚拟化以及EPT请参考http://royluo.org/2016/03/13/kvm-mmu-virtualization/

    相关文章

      网友评论

        本文标题:PowerPC上的KVM内存虚拟化

        本文链接:https://www.haomeiwen.com/subject/gkjbuxtx.html