8.3 MPI

MPI 模型

如图MPI的各个运算节点是分布式的.每一个节点可以视为是一个“Thread”,但这里的不同之处在于这些节点没有所谓的共享内存,或者说Global Memory。所以,在后面也会看到,一般会有一个节点专门处理数据传输和分配的问题。MPI和CUDA的另一个不同之处在于MPI只有一级结构,即所有的节点都在一个全局命名空间下,不像CUDA那样有Grid/Block/Thread三级层次。MPI同样也是基于SPMD模型,所有的节点执行相同的指令,而每个节点根据自己的ID来确定指令处理的数据,产生相应的输出。

MPI API介绍

以下面这段代码来介绍API: 这段代码的功能是实现向量相加

int main(int argc, char *argv[]) {
  int size = 1024;
  int pid = -1;
  int np = -1;
  MPI_Init(&argc, &argv);
  MPI_Comm_rank(MPI_COMM_WORLD, &pid);
  MPI_Comm_size(MPI_COMM_WORLD, &np);
  if (np < 3) {
    if (pid == 0) printf("Need 3 or more processes.\n");
    MPI_Abort(MPI_COMM_WORLD, 1);
    return 1;
  }
  if (pid < np - 1)
    compute_node(size / (np - 1));
  else
    data_server(size);
  MPI_Finalize();
  return 0;
}

1. MPI_Init()和MPI_Finalize()用于初始化和结束MPI框架;

2. MPI_COMM_WORLD代表了所有分配到的节点的集群;

3. MPI_Comm_rank()用于获取节点在集群中的标号,相当与CUDA中的threadIdx.x;

4. MPI_Comm_size()用于获取集群节点的数量,相当于blockDim.x;

5. MPI_Abort()用于中止执行。

上面代码中,有一个节点,也就是np-1节点,来负责数据的传输和分配,而其他的节点则负责计算。

数据传输data_server(size)是如何实现的呢?

MPI 通信

void data_server(unsigned int size) {
  int np;
  int first = 0;
  unsigned int num_bytes = size * sizeof(float);
  float *a = 0; float *b = 0; float *c = 0;
  MPI_Comm_size(MPI_COMM_WORLD, &np);
  a = (float *) malloc(num_bytes);
  b = (float *) malloc(num_bytes);
  c = (float *) malloc(num_bytes);
  random_data(a, size);
  random_data(b, size);
  float *ptr_a = a;
  float *ptr_b = b;
  
  // send data
  for (int i = 0; i < np - 1; i++) {
    MPI_Send(ptr_a, size / (np - 1), MPI_FLOAT, i, DATA_DISTRIBUTE, MPI_COMM_WORLD);
    ptr_a += size / (np - 1);
    MPI_Send(ptr_b,size / (np - 1), MPI_FLOAT, i, DATA_DISTRIBUTE, MPI_COMM_WORLD);
    ptr_b += size / (np - 1);
  }
  
  // wait for nodes to compute
  MPI_Barrier(MPI_COMM_WORLD);
  // collect output data
  MPI_Status status;
  for (int i = 0; i < np -1; i++) {
    MPI_Recv(c + i * size /(np - 1), size / (np - 1), MPI_REAL, i, DATA_COLLECT, MPI_COMM_WORLD, &status);
  }
  store_output(c);
  free(a); free(b); free(c);
}

 int MPI_Send(void *buf, int count, MPI_Datatype datatype, int dest, int tag, MPI_Comm comm)

buf: 发送buffer的地址值.

count: 发送buffer的元素个数.

datatype: 发送buffer的数据类型.

dest:  个人理解为目标处理单元的索引,比如当前这个就是发送给第i个处理单元.

tag: 信息tag

comm:  传播者,handler

 

int MPI_Barrier(MPI_Comm comm): 阻塞调用者直到组内所有成员都调用它. 类似于cuda中的__syncthreads(); 

说完MPI 通信,下面来说MPI 计算部分.

MPI Compute

若节点支持CUDA,则还可以与CUDA结合起来进一步提高运算速度。以上面的计算节点为例:

void compute_node(unsigned int vector_size ) {
  int np;
  unsigned int num_bytes = vector_size*sizeof(float);
  float *h_a, *h_b, *h_output;
  float* d_A, d_B, d_output;
  MPI_Status status;
  MPI_Comm_size(MPI_COMM_WORLD, &np);
  int server_process = np - 1;
  /* Allocate memory */
  cudaHostAlloc((void **)&h_a, num_bytes, cudaHostAllocDefault);
  cudaHostAlloc((void **)&h_b, num_bytes, cudaHostAllocDefault);
  cudaHostAlloc((void **)&h_output, num_bytes, cudaHostAllocDefault);
  /* Get the input data from server process */
  MPI_Recv(h_a, vector_size, MPI_FLOAT, server_process, DATA_DISTRIBUTE, MPI_COMM_WORLD, &status);
  MPI_Recv(h_b, vector_size, MPI_FLOAT, server_process, DATA_DISTRIBUTE, MPI_COMM_WORLD, &status);
  /* Transfer data to CUDA device */
  cudaMalloc((void **) &d_A, size);
  cudaMemcpy(d_A, h_A, size, cudaMemcpyHostToDevice);
  cudaMalloc((void **) &d_B, size);
  cudaMemcpy(d_B, h_B, size, cudaMemcpyHostToDevice);
  cudaMalloc((void **) &d_output, size);
  /* Compute the partial vector addition */
  dim3 Db(BLOCK_SIZE);
  dim3 Dg((vector_size + BLOCK_SIZE – 1)/BLOCK_SIZE);
  vector_add_kernel<<<Dg, Db>>>(d_output, d_a, d_b, vector_size);
  MPI_Barrier(d_output);
  /* Send the output */
  MPI_Send(output, vector_size, MPI_FLOAT, server_process, DATA_COLLECT, MPI_COMM_WORLD);
  /* Release device memory */
  cudaFree(d_a);
  cudaFree(d_b);
  cudaFree(d_output);
}

上面使用了Pinned Memory,可以提高数据传输的效率。这里所做的工作,就是将原来串行的向量.

如果节点不支持cuda,则可以像普通C语言那样写:

for(int i=0; i<vector_size; ++i) {

  output[i] = input_a[i] + input_b[i]

}

 

posted @ 2015-03-24 18:03  Magnum Programm Life  阅读(529)  评论(0编辑  收藏  举报