Н.В. Вдовикина, А.В. Казунин, И.В. Машечкин, А.Н. Техехин - Системное программное обеспечение - взаимодействие процессов (1114927), страница 28
Текст из файла (страница 28)
Функция MPI_Bcast()служит для отправки всем ветвям одних и тех же данных:#include <mpi.h>int MPI_Bcast(void* buffer, int count, MPI_Datatypedatatype, int root, MPI_Comm comm);Параметр comm задает коммуникатор, в рамках которогоосуществляется коллективная операция. Параметр root задаетномер ветви, которая выступает в роли отправителя данных.Получателями выступают все ветви из данного коммуникационногоконтекста (включая и ветвь-отправитель). При этом параметр bufferво всех ветвях задает адрес буфера, но ветвь-отправитель передает вэтом буфере данные для отправки, а в ветвях-получателях данныйбуфер используется для приема данных.
После возврата из даннойфункции в буфере каждой ветви будут записаны данные,переданные ветвью с номером root.Параметры datatype и count задают соответственно типданных, составляющих тело сообщения, и количество элементовэтого типа в теле сообщения. Их значения должны совпадать во всехветвях. Разумеется, для корректного выполнения функциинеобходимо, чтобы размер буфера, переданного каждой ветвью вкачестве параметра buffer, был достаточен для приеманеобходимого количества данных.Как уже говорилось, функция MPI_Bcast() осуществляетпересылку всем ветвям одних и тех же данных. Однако, частобывает необходимо разослать каждой ветви свою порцию данных(например, в случае распараллеливания обработки большогомассива данных, когда одна выделенная ветвь осуществляет вводили считывание всего массива, а затем отсылает каждой из ветвей еечасть массива для обработки).
Для этого предназначена функцияMPI_Scatter():#include <mpi.h>int MPI_Scatter(void* sendbuf, int sendcount,MPI_Datatype sendtype, void* recvbuf, int recvcount,MPI_Datatype recvtype, int root, MPI_Comm comm);173Параметр root здесь опять задает номер выделенной ветви,являющейся отправителем данных, параметр comm – коммуникатор,в рамках которого осуществляется обмен. Параметры sendbuf,sendtype, sendcount имеют смысл только для ветви-отправителя изадают соответственно адрес буфера с данными для рассылки, ихтип и количество элементов заданного типа, которое нужноотправить каждой из ветвей.
Для остальных ветвей эти параметрыигнорируются. В результате действия функции массив данных вsendbuf делится на N равных частей (где N – количество ветвей вкоммуникаторе), и каждой ветви посылается i-я часть этого массива,где i – уникальный номер данной ветви в этом коммуникаторе.Отметим, что для того, чтобы вызов был корректным, буферsendbuf должен, очевидно, содержать N*sendcount элементов(ответственность за это возлагается на программиста).Параметры recvbuf, recvtype, recvcount имеют значениедля всех ветвей (в том числе и ветви-отправителя) и задают адресбуфера для приема данных, тип принимаемых данных и ихколичество. Формально типы отправляемых и принимаемых данныхмогут не совпадать, однако жестко задается ограничение, всоответствии с которым общий размер данных, отправляемых ветви,должен точно совпадать с размером данных, которые еюпринимаются.Операцию, обратную MPI_Scatter(), – сбор порций данныхот всех ветвей на одной выделенной ветви – осуществляет функцияMPI_Gather():#include <mpi.h>intMPI_Gather(void*sendbuf,intsendcount,MPI_Datatype sendtype, void* recvbuf, int recvcount,MPI_Datatype recvtype, int root, MPI_Comm comm);Параметр root задает номер ветви-получателя данных;отправителями являются все ветви из данного коммуникационногоконтекста (включая и ветвь с номером root).
В результатевыполнения этой функции в буфере recvbuf у ветви с номером rootформируется массив, составленный из N равных частей, где i-я частьпредставляет собой содержимое буфера sendbuf у ветви с номером i(т.е. порции данных от всех ветвей располагаются в порядке ихномеров). Параметры sendbuf, sendtype, sendcount должнызадаваться всеми ветвями и описывают отправляемые данные;параметры recvbuf, recvtype, recvcount описывают буфер дляприема данных, а также количество и тип принимаемых данных и174имеют значение только для ветви с номером root, а у остальныхветвей игнорируются.
Для корректной работы функции необходимо,чтобы буфер recvbuf имел достаточную емкость, чтобы вместитьданные от всех ветвей.Работу функций MPI_Scatter() и MPI_Gather() для случая3х ветвей и root=0 наглядно иллюстрирует Рис. 24.ветвь 0ветвь 0MPI_scatter()ветвь 1ветвь 1ветвь 2ветвь 2ветвь 0ветвь 0MPI_gather()ветвь 1ветвь 1ветвь 2ветвь 2Рис. 24 Работа MPI_scatter() и MPI_gather()Существует также возможность осуществить сбор данных отвсех ветвей в единый массив, но так, чтобы доступ к этомурезультирующему массиву имела не одна выделенная ветвь, а всеветви, принимающие участие в операции. Для этого служит функцияMPI_Allgather():#include <mpi.h>int MPI_Allgather(void* sendbuf, int sendcount,MPI_Datatype sendtype, void* recvbuf, int recvcount,MPI_Datatype recvtype, MPI_Comm comm);Работа этой функции проиллюстрирована на Рис.
25. Этафункция отличается от предыдущей лишь тем, что у нее отсутствуетпараметр root, а параметры recvbuf, recvtype, recvcount имеютсмысл для всех ветвей. В результате работы этой функции на каждойиз ветвей в буфере recvbuf формируется результирующий массив,аналогично тому, как описано для MPI_Gather(). Ответственностьза то, чтобы приемные буфера имели достаточную емкость,возлагается на программиста.175ветвь 0ветвь 0MPI_Allgather()ветвь 1ветвь 1ветвь 2ветвь 2Рис.
25 Работа MPI_Allgather()Функция MPI_Alltoall() представляет собой расширениеMPI_Allgather(), заключающееся в том, что каждая ветвьотправитель посылает каждой конкретной ветви-получателю своюотдельную порцию данных, подобно тому, как это происходит вMPI_Scatter(). Другими словами, i-я часть данных, посланныхветвью с номером j, будет получена ветвью с номером i и размещенав j-м блоке ее результирующего буфера.#include <mpi.h>intMPI_Alltoall(void*sendbuf,intsendcount,MPI_Datatype sendtype, void* recvbuf, int recvcount,MPI_Datatype recvtype, MPI_Comm comm);ПараметрыэтойфункциианалогичныпараметрамMPI_Allgather().ветвь 0ветвь 0ветвь 1MPI_Alltoall()ветвь 1ветвь 2ветвь 2Рис. 26 Работа функции MPI_Alltoall()Помимо рассмотренных выше функций, библиотека MPIпредоставляет так называемые «векторные» аналоги функцийMPI_Scatter(),MPI_Gather(),MPI_Allgather()иMPI_Alltoall(), позволяющие разным ветвям пересылать илиполучать части массива разных длин, однако их подробноерассмотрение выходит за рамки данного пособия.176Коллективный обмен, совмещенный с обработкой данных.Во многих случаях после сбора данных от всех ветвейнепосредственно следует некоторая обработка полученных данных,например, их суммирование, или нахождение максимума и т.п.Библиотека MPI предоставляет несколько коллективных функций,которые позволяют совместить прием данных от всех ветвей и ихобработку.
Простейшей из этих функций является MPI_Reduce():#include <mpi.h>int MPI_Reduce(void* sendbuf, void* recvbuf, intcount, MPI_Datatype datatype, MPI_Op op, int root,MPI_Comm comm);Функция MPI_Reduce() является своего рода расширениемфункции MPI_Gather(): ветвь с номером root является получателемданных, отправителями являются все ветви. Параметры sendbuf,datatype, count имеют смысл для всех ветвей и задают адресбуфера с данными для отправки, тип отправляемых данных и ихколичество.
Тип и количество данных должны совпадать во всехветвях. Однако в процессе получения данных над ними поэлементнопроизводится операция, задаваемая параметром op, результаткоторой заносится в соответствующий элемент буфера recvbufветви с номером root. Так, например, если параметр op равенконстанте MPI_SUM, что означает суммирование элементов, то в i-йэлемент буфера recvbuf ветви с номером root будет записанасумма i-х элементов буферов sendbuf всех ветвей.
Параметрrecvbuf имеет смысл лишь для ветви с номером root, для всехостальных ветвей он игнорируется.Для описания операций в MPI введен специальный типMPI_Op. MPI предоставляет ряд констант этого типа, описывающихстандартные операции, такие как суммирование (MPI_SUM),умножение (MPI_PROD), вычисление максимума и минимума(MPI_MAX и MPI_MIN) и т.д. Кроме того, у программиста существуетвозможность описывать новые операции.Функцияпредставляет собой аналогMPI_Reduce() с той лишь разницей, что результирующий массивформируется на всех ветвях (и, соответственно, параметр recvbufтакже должен быть задан на всех ветвях):MPI_Allreduce()#include <mpi.h>177int MPI_Allreduce(void* sendbuf, void* recvbuf, intcount, MPI_Datatype datatype, MPI_Op op, MPI_Commcomm);Функция MPI_Reduce_scatter() сочетает в себе возможностиMPI_Reduce() и MPI_Scatter():#include <mpi.h>int MPI_Reduce_scatter(void* sendbuf, void* recvbuf,int *recvcounts, MPI_Datatype datatype, MPI_Op op,MPI_Comm comm);В процессе ее выполнения сначала над массивами sendbufпоэлементно производится операция, задаваемая параметром op, азатем результирующий массив разделяется на N частей, где N –количество ветвей в коммуникационном контексте, и каждая изветвей получает в буфере recvbuf свою часть в соответствии сосвоим номером.