parallel-processing - 将 MPI_SENDRECV 与 4 个线程一起使用时出现问题
问题描述
作为一个最小的问题,我试图在 4 个处理器之间发送一个整数:0 -> 3(rank0
发送到 rank 并从 rank 接收3
),2 -> 1, 1 -> 2, 3 -> 0。它永远不会完成执行并挂起,可能正在等待其他线程的响应。
我正在编译代码mpif90 ...
并使用mpiexec -np 4 ...
. 下面是最小的片段:
program sendrecv
implicit none
include "mpif.h"
integer :: foo, bar
integer :: mpi_rank, mpi_size, ierr
integer :: mpi_sendto, mpi_recvfrom
integer :: istat(MPI_STATUS_SIZE), status, i
call MPI_INIT(ierr)
call MPI_COMM_SIZE(MPI_COMM_WORLD, mpi_size, ierr)
call MPI_COMM_RANK(MPI_COMM_WORLD, mpi_rank, ierr)
print *, "SENDING..."
if (mpi_rank .eq. 0) then
mpi_sendto = 3; mpi_recvfrom = 3
else if (mpi_rank .eq. 1) then
mpi_sendto = 2; mpi_recvfrom = 2
else if (mpi_rank .eq. 2) then
mpi_sendto = 1; mpi_recvfrom = 1
else
mpi_sendto = 0; mpi_recvfrom = 0
end if
foo = mpi_rank
do i = 1, 5
foo = mpi_rank
call MPI_SENDRECV(foo, 1,&
& MPI_INTEGER, mpi_sendto, mpi_rank * 10 + i,&
& bar, 1,&
& MPI_INTEGER, mpi_recvfrom, mpi_rank * 10 + i,&
& MPI_COMM_WORLD, istat, ierr)
end do
print *, "...DONE"
call MPI_FINALIZE(ierr)
end
我真的不明白为什么这个程序会挂起,也许我错过了一些东西或做错了什么。如果我理解正确,MPI_SENDRECV
它只是非阻塞send
且recv
带有两个wait
-s。在那种情况下,比如说,如果rank=0
发送给rank=3
它应该没有任何问题,对吧?
我尝试从不同的线程发送/接收,即这样做:
if (mpi_rank .eq. 0) then
mpi_sendto = 1; mpi_recvfrom = 3
else if (mpi_rank .eq. 1) then
mpi_sendto = 2; mpi_recvfrom = 0
else if (mpi_rank .eq. 2) then
mpi_sendto = 3; mpi_recvfrom = 1
else
mpi_sendto = 0; mpi_recvfrom = 2
end if
还是行不通。
UPD正如它所指出的,在执行 时标签应该是相同的SENDRECV
,但是如果在循环中执行此调用,类似的标签并没有多大帮助(请参阅修改后的代码)。旧版:
call MPI_SENDRECV(foo, 1,&
& MPI_INTEGER, mpi_sendto, 200,&
& bar, 1,&
& MPI_INTEGER, mpi_recvfrom, 100,&
& MPI_COMM_WORLD, status, ierr)
UPD#2实际上,如果有人感兴趣,我发现了一个关于为什么SENDRECV
-s 有时可能会死锁的问题的讨论。
解决方案
术语“线程”在这里具有误导性,您应该谈论 MPI 任务或 MPI 进程(两者是等价的)。
根本原因是标签不匹配。您使用标签发送200
但使用标签接收100
。
此外,您应该使用istat
而不是status
作为 的状态参数MPI_Sendrecv()
。
这是修复程序的方法
call MPI_SENDRECV(foo, 1,&
& MPI_INTEGER, mpi_sendto, 200,&
& bar, 1,&
& MPI_INTEGER, mpi_recvfrom, 200,&
& MPI_COMM_WORLD, istat, ierr)