DPDK mempool
Mempool 库
内存池是固定大小的对象分配器。 在DPDK中,它由名称唯一标识,并且使用mempool操作来存储空闲对象。 默认的mempool操作是基于ring的。它提供了一些可选的服务,如per-core缓存和对齐帮助,以确保对象被填充, 方便将他们均匀扩展到DRAM或DDR3通道上。
这个库由 Mbuf Library 使用。
1.2. Stats
在调试模式(CONFIG_RTE_LIBRTE_MEMPOOL_DEBUG is enabled)中,从池中获取/释放的统计信息存放在mempool结构体中。 统计信息是per-lcore的,避免并发访问统计计数器。
1.3. 内存对齐约束
根据硬件内存配置,可以通过在对象之间添加特定的填充来大大提高性能。 其目的是确保每个对象开始于不同的通道上,并在内存中排列,以便实现所有通道负载均衡。
特别是当进行L3转发或流分类时,报文缓冲对齐尤为重要。此时仅访问报文的前64B,因此可以通过在不同的信道之间扩展对象的起始地址来提升性能。
DIMM上的rank数目是可访问DIMM完整数据位宽的独立DIMM集合的数量。 由于他们共享相同的路径,因此rank不能被同事访问。 DIMM上的DRAM芯片的物理布局无需与rank数目相关。
当运行app时,EAL命令行选项提供了添加内存通道和rank数目的能力。
Note
命令行必须始终指定处理器的内存通道数目。
不同DIMM架构的对齐示例如图所示 Fig. 5.1 及 Fig. 5.2 。
在这种情况下,假设吧平稳是64B块就不成立了。
Intel® 5520芯片组有三个通道,因此,在大多数情况下,对象之间不需要填充。(除了大小为n x 3 x 64B的块)
当创建一个新池时,用户可以指定使用此功能。
1.4. 本地缓存
在CPU使用率方面,由于每个访问需要compare-and-set (CAS)操作,所以多核访问内存池的空闲缓冲区成本比较高。 为了避免对内存池ring的访问请求太多,内存池分配器可以维护per-core cache,并通过实际内存池中具有较少锁定的缓存对内存池ring执行批量请求。 通过这种方式,每个core都可以访问自己空闲对象的缓存(带锁), 只有当缓存填充时,内核才需要将某些空闲对象重新放回到缓冲池ring,或者当缓存空时,从缓冲池中获取更多对象。
虽然这意味着一些buffer可能在某些core的缓存上处于空闲状态,但是core可以无锁访问其自己的缓存提供了性能上的提升。
缓存由一个小型的per-core表及其长度组成。可以在创建池时启用/禁用此缓存。
缓存大小的最大值是静态配置,并在编译时定义的(CONFIG_RTE_MEMPOOL_CACHE_MAX_SIZE)。
Fig. 5.3 显示了一个缓存操作。
不同于per-lcore内部缓存,应用程序可以通过接口 rte_mempool_cache_create()
, rte_mempool_cache_free()
和 rte_mempool_cache_flush()
创建和管理外部缓存。 这些用户拥有的缓存可以被显式传递给 rte_mempool_generic_put()
和 rte_mempool_generic_get()
。 接口 rte_mempool_default_cache()
返回默认内部缓存。 与默认缓存相反,用户拥有的高速缓存可以由非EAL线程使用。
1.5. Mempool 句柄
这允许外部存储子系统,如外部硬件存储管理系统和软件存储管理与DPDK一起使用。
mempool 操作包括两方面:
- 添加新的mempool操作代码。这是通过添加mempool ops代码,并使用
MEMPOOL_REGISTER_OPS
宏来实现的。 - 使用新的API调用
rte_mempool_create_empty()
及rte_mempool_set_ops_byname()
用于创建新的mempool,并制定用户要使用的操作。
在同一个应用程序中可能会使用几个不同的mempool处理。 可以使用 rte_mempool_create_empty()
创建一个新的mempool,然后用 rte_mempool_set_ops_byname()
将mempool指向相关的 mempool处理回调(ops)结构体。
传统的应用程序可能会继续使用旧的 rte_mempool_create()
API调用,它默认使用基于ring的mempool处理。 这些应用程序需要修改为新的mempool处理。
对于使用 rte_pktmbuf_create()
的应用程序,有一个配置设置(RTE_MBUF_DEFAULT_MEMPOOL_OPS
),允许应用程序使用另一个mempool处理。
1.6. Mempool
DPDK以两种方式对外提供内存管理方法,一个是rte_mempool,主要用于网卡数据包的收发;一个是rte_malloc,主要为应用程序提供内 存使用接口。本文讨论rte_mempool。rte_mempool由函数rte_mempool_create()负责创建,从 rte_config.mem_config->free_memseg[]中取出合适大小的内存,放到 rte_config.mem_config->memzone[]中。
rte_mempool结构体:
1 /** 2 * The RTE mempool structure. 3 */ 4 struct rte_mempool { 5 /* 6 * Note: this field kept the RTE_MEMZONE_NAMESIZE size due to ABI 7 * compatibility requirements, it could be changed to 8 * RTE_MEMPOOL_NAMESIZE next time the ABI changes 9 */ 10 char name[RTE_MEMZONE_NAMESIZE]; /**< Name of mempool. */ 11 RTE_STD_C11 12 union { 13 void *pool_data; /**< Ring or pool to store objects. */ 14 uint64_t pool_id; /**< External mempool identifier. */ 15 }; 16 void *pool_config; /**< optional args for ops alloc. */ 17 const struct rte_memzone *mz; /**< Memzone where pool is alloc'd. */ 18 unsigned int flags; /**< Flags of the mempool. */ 19 int socket_id; /**< Socket id passed at create. */ 20 uint32_t size; /**< Max size of the mempool. */ 21 uint32_t cache_size; 22 /**< Size of per-lcore default local cache. */ 23 24 uint32_t elt_size; /**< Size of an element. */ 25 uint32_t header_size; /**< Size of header (before elt). */ 26 uint32_t trailer_size; /**< Size of trailer (after elt). */ 27 28 unsigned private_data_size; /**< Size of private data. */ 29 /** 30 * Index into rte_mempool_ops_table array of mempool ops 31 * structs, which contain callback function pointers. 32 * We're using an index here rather than pointers to the callbacks 33 * to facilitate any secondary processes that may want to use 34 * this mempool. 35 */ 36 int32_t ops_index; 37 38 struct rte_mempool_cache *local_cache; /**< Per-lcore local cache */ 39 40 uint32_t populated_size; /**< Number of populated objects. */ 41 struct rte_mempool_objhdr_list elt_list; /**< List of objects in pool */ 42 uint32_t nb_mem_chunks; /**< Number of memory chunks */ 43 struct rte_mempool_memhdr_list mem_list; /**< List of memory chunks */ 44 45 #ifdef RTE_LIBRTE_MEMPOOL_DEBUG 46 /** Per-lcore statistics. */ 47 struct rte_mempool_debug_stats stats[RTE_MAX_LCORE]; 48 #endif 49 } __rte_cache_aligned;