3、nalize()MPI_Init用来初始化MPI执行环境,建立多个MPI进程之间的联系,为后续通信做准备。而MPI_Finalize则是结束MPI执行环境。这两个函数就是定义MPI程序的并行区的,除了检测是否初始化的函数之外,不应该在这两个函数定义的区域外调用其它MPI函数。这两个函数都返回整型值,标识函数是否调用成功。intMPI_Comm_rank(MPI_Commcomm,int*rank)MPI_Comm_rank函数用来标识各个MPI进程,获取调用该函数进程的进程号,将自身与其他进程区分。MPI_Comm_rank返回整型的错误值,需要提供两个参数:
4、MPI_Comm类型的通信域,标识参与计算的MPI进程组。上面例子中使用的是MPI_COMM_WORLD,这个进程组是MPI实现预先定义好的进程组,指的是所有MPI进程所在的进程组。如果想要申请自己的特殊的进程组,则需要通过MPI_Comm定义并通过其它MPI函数生成。&rank返回调用进程中的标识号。intMPI_Comm_size(MPI_Commcomm,int*size)MPI_Comm_size函数用来获取指定通信域的进程个数,确定自身需要完成的任务数。MPI_Comm类型的通信域,标识参与计算的MPI进程组。上面的例子中用的是MPI_COMM_WO
5、RLD。&size返回相应进程组中的进程数。intMPI_Send(void*buf,intcount,MPI_Datatypedatatype,intdest,inttag,MPI_Commcomm)MPI_Send函数用于发送一个消息到目标进程。通信域中的dest进程发送数据,数据存放在buf中,类型是datatype,个数是count,这个消息的标志是tag,用以和本进程向同一目的进程发送的其它消息区别开来。intMPI_Recv(void*buf,intcount,MPI_Datatypedatatype,intsource,inttag,MPI_Co
6、mmcomm,MPI_Status*status)MPI_Recv函数用于从指定进程接收一个消息。它的含义是进程从comm域中source进程接收标签号为tag的数据,并保存到buf中。接收缓冲区buf的大小不能小于发送过来的消息的长度。否则会由于数组越界导致程序出错。主进程if(process_id==0){row_aver=N/slave_num;remainder=N%slave_num;offset=0;for(dest=1;dest<=slave_num;dest++){rows=(dest<=remainder)?row_aver+1:row_av
7、er;printf("sending%drowstoprocess%d",rows,dest);MPI_Send(&offset,1,MPI_INT,dest,FROM_MASTER,MPI_COMM_WORLD);MPI_Send(&rows,1,MPI_INT,dest,FROM_MASTER,MPI_COMM_WORLD);MPI_Send(&A[offset][0],rows*N,MPI_INT,dest,FROM_MASTER,MPI_COMM_WORLD);MPI_Send(&B,N*N,MPI_INT,dest,FROM_MASTER,MPI
8、_COMM_WORLD);offset