[development][dpdk][hugepage] 为不同的结点分配不同大小的大页内存

 

这个事来自dpdk, 所以, 先参考.

http://dpdk.org/doc/guides/linux_gsg/sys_reqs.html

当前, 假设你已经读过上边内容, 知道大页内存时候, dpdk是什么,以及怎样使用.

 

我们已经知道, 为系统分配大页内存有两种大小:

2M 和 1G 

1G的只有64位系统支持, 并且我们推荐64位的操作系统尽量使用1G的page

同时, 我们还知道配置大页内存,有两个时机

boot time 和 run time

boot time的配置写在grub里,给内核.

run time的配置方式, 类似如下:

# 不是 numa 的
echo 1024 > /sys/kernel/mm/hugepages/hugepages-2048kB/nr_hugepages

# 是 numa 的
echo 1024 > /sys/devices/system/node/node0/hugepages/hugepages-2048kB/nr_hugepages
echo 1024 > /sys/devices/system/node/node1/hugepages/hugepages-2048kB/nr_hugepages

 

据说, 1G的必须在boot time分配, 而且,就算是2M的也应该在开机之后尽快分配, 因为申请的大页需要连续空间, 如果不连续, 申请将失败.

那么, boot time是申请1G大页的内核参数如下:

default_hugepagesz=1G hugepagesz=1G hugepages=4

上面的例子, 申请了4G的大页, 如果是numa的话, 这4G会被平分给两个node, 每个node, 2G

而接下的问题是: 在实际生产生活中我们并不想这样用. 比如,我只想在node0上申请4G的大页, 而不想在node1上申请大页.

 

这时候, 一个人在intel问了这个问题, 然后intel的人很不负责人的回答了(我只是为了吐槽)

https://embedded.communities.intel.com/thread/6681

 

真正的解决方案在这里:

https://access.redhat.com/documentation/en-us/red_hat_enterprise_linux/7/html/performance_tuning_guide/sect-red_hat_enterprise_linux-performance_tuning_guide-memory-configuring-huge-pages

 

简单的来说就是

1. 先用这样的参数

default_hugepagesz=1G hugepagesz=1G

2. 在用下面的命令, 给不同的node配置不同的页数

echo $1 > $nodes_path/$2/hugepages/hugepages-1048576kB/nr_hugepages

 

另外如果知道,支不支持1G的大页?

2M, 查看CPU的 psr 标记

[root@dpdk ~]# cat /proc/cpuinfo |grep pse

1G, 查看CPU的 pdpe1gb  标记

[root@dpdk ~]# cat /proc/cpuinfo |grep pdpe1gb

 

另外的另外, 我的QEMU不支持怎么办?

首先查看支不支持,

qemu-system-x86_64 -cpu help

然后, 启动的时候在CPU类型后面加一个参数:

qemu-system-x86_64 -cpu Nehalem,pdpe1gb

 

参考: 

[daily][qemu][kvm] qemu增加减少CPUID

 

posted on 2017-11-02 14:35  toong  阅读(3106)  评论(0编辑  收藏  举报