Н.В. Вдовикина, И.В. Машечкин, А.Н. Терехин, А.Н. Томилин - Операционные системы - взаимодействие процессов (2008) (1114653), страница 33
Текст из файла (страница 33)
После возврата из даннойфункции в буфере каждой ветви будут записаны данные,переданные ветвью с номером root.Параметры datatype и count задают соответственно типданных, составляющих тело сообщения, и количество элементовэтого типа в теле сообщения. Их значения должны совпадать во всехветвях.
Разумеется, для корректного выполнения функциинеобходимо, чтобы размер буфера, переданного каждой ветвью вкачестве параметра buffer, был достаточен для приеманеобходимого количества данных.Как уже говорилось, функция MPI_Bcast() осуществляетпересылку всем ветвям одних и тех же данных. Однако, частобывает необходимо разослать каждой ветви свою порцию данных(например, в случае распараллеливания обработки большогомассива данных, когда одна выделенная ветвь осуществляет вводили считывание всего массива, а затем отсылает каждой из ветвей еечасть массива для обработки).
Для этого предназначена функцияMPI_Scatter():#include <mpi.h>int MPI_Scatter(void* sendbuf, int sendcount,MPI_Datatype sendtype, void* recvbuf, int recvcount,MPI_Datatype recvtype, int root, MPI_Comm comm);Параметр root здесь опять задает номер выделенной ветви,являющейся отправителем данных, параметр comm – коммуникатор,в рамках которого осуществляется обмен. Параметры sendbuf,sendtype, sendcount имеют смысл только для ветви-отправителя изадают соответственно адрес буфера с данными для рассылки, ихтип и количество элементов заданного типа, которое нужноотправить каждой из ветвей.
Для остальных ветвей эти параметрыигнорируются. В результате действия функции массив данных вsendbuf делится на N равных частей (где N – количество ветвей вкоммуникаторе), и каждой ветви посылается i-я часть этого массива,где i – уникальный номер данной ветви в этом коммуникаторе.Отметим, что для того, чтобы вызов был корректным, буферsendbuf должен, очевидно, содержать N*sendcount элементов(ответственность за это возлагается на программиста).Параметры recvbuf, recvtype, recvcount имеют значениедля всех ветвей (в том числе и ветви-отправителя) и задают адрес205буфера для приема данных, тип принимаемых данных и ихколичество.
Формально типы отправляемых и принимаемых данныхмогут не совпадать, однако жестко задается ограничение, всоответствии с которым общий размер данных, отправляемых ветви,должен точно совпадать с размером данных, которые еюпринимаются.Операцию, обратную MPI_Scatter(), – сбор порций данныхот всех ветвей на одной выделенной ветви – осуществляет функцияMPI_Gather():#include <mpi.h>intMPI_Gather(void*sendbuf,intsendcount,MPI_Datatype sendtype, void* recvbuf, int recvcount,MPI_Datatype recvtype, int root, MPI_Comm comm);Параметр root задает номер ветви-получателя данных;отправителями являются все ветви из данного коммуникационногоконтекста (включая и ветвь с номером root).
В результатевыполнения этой функции в буфере recvbuf у ветви с номером rootформируется массив, составленный из N равных частей, где i-я частьпредставляет собой содержимое буфера sendbuf у ветви с номером i(т.е. порции данных от всех ветвей располагаются в порядке ихномеров). Параметры sendbuf, sendtype, sendcount должнызадаваться всеми ветвями и описывают отправляемые данные;параметры recvbuf, recvtype, recvcount описывают буфер дляприема данных, а также количество и тип принимаемых данных иимеют значение только для ветви с номером root, а у остальныхветвей игнорируются.
Для корректной работы функции необходимо,чтобы буфер recvbuf имел достаточную емкость, чтобы вместитьданные от всех ветвей.Работу функций MPI_Scatter() и MPI_Gather() для случая3х ветвей и root=0 наглядно иллюстрирует Рис. 28.206ветвь 0 111222ветвь 0 111333MPI_Scatter()ветвь 1ветвь 1 222ветвь 2ветвь 2 333ветвь 0 111ветвь 0 111MPI_Gather()ветвь 1 222ветвь 2 333222333ветвь 1ветвь 2Рис. 28 Работа MPI_Scatter() и MPI_Gather()Существует также возможность осуществить сбор данных отвсех ветвей в единый массив, но так, чтобы доступ к этомурезультирующему массиву имела не одна выделенная ветвь, а всеветви, принимающие участие в операции.
Для этого служит функцияMPI_Allgather():#include <mpi.h>int MPI_Allgather(void* sendbuf, int sendcount,MPI_Datatype sendtype, void* recvbuf, int recvcount,MPI_Datatype recvtype, MPI_Comm comm);Работа этой функции проиллюстрирована на Рис. 29. Этафункция отличается от предыдущей лишь тем, что у нее отсутствуетпараметр root, а параметры recvbuf, recvtype, recvcount имеютсмысл для всех ветвей. В результате работы этой функции на каждойиз ветвей в буфере recvbuf формируется результирующий массив,аналогично тому, как описано для MPI_Gather(). Ответственностьза то, чтобы приемные буфера имели достаточную емкость,возлагается на программиста.ветвь 0 111ветвь 1 222MPI_Allgather()ветвь 2 333ветвь 0 111222333ветвь 1 111222333ветвь 2 111222333Рис.
29 Работа MPI_Allgather()207Функция MPI_Alltoall() представляет собой расширениеMPI_Allgather(), заключающееся в том, что каждая ветвьотправитель посылает каждой конкретной ветви-получателю своюотдельную порцию данных, подобно тому, как это происходит вMPI_Scatter(). Другими словами, i-я часть данных, посланныхветвью с номером j, будет получена ветвью с номером i и размещенав j-м блоке ее результирующего буфера.#include <mpi.h>intMPI_Alltoall(void*sendbuf,intsendcount,MPI_Datatype sendtype, void* recvbuf, int recvcount,MPI_Datatype recvtype, MPI_Comm comm);ПараметрыэтойфункциианалогичныпараметрамMPI_Allgather().ветвь 0 111222333ветвь 1 444555666ветвь 2 777888999MPI_Alltoall()ветвь 0 111444777ветвь 1 222555888ветвь 2 333666999Рис.
30 Работа функции MPI_Alltoall()Помимо рассмотренных выше функций, библиотека MPIпредоставляет так называемые «векторные» аналоги функцийMPI_Scatter(),MPI_Gather(),MPI_Allgather()иMPI_Alltoall(), позволяющие разным ветвям пересылать илиполучать части массива разных длин, однако их подробноерассмотрение выходит за рамки данного пособия.Коллективный обмен, совмещенный с обработкой данныхВо многих случаях после сбора данных от всех ветвейнепосредственно следует некоторая обработка полученных данных,например, их суммирование, или нахождение максимума и т.п.Библиотека MPI предоставляет несколько коллективных функций,которые позволяют совместить прием данных от всех ветвей и ихобработку.
Простейшей из этих функций является MPI_Reduce():#include <mpi.h>int MPI_Reduce(void* sendbuf, void* recvbuf, intcount, MPI_Datatype datatype, MPI_Op op, int root,MPI_Comm comm);208Функция MPI_Reduce() является своего рода расширениемфункции MPI_Gather(): ветвь с номером root является получателемданных, отправителями являются все ветви. Параметры sendbuf,datatype, count имеют смысл для всех ветвей и задают адресбуфера с данными для отправки, тип отправляемых данных и ихколичество. Тип и количество данных должны совпадать во всехветвях.
Однако в процессе получения данных над ними поэлементнопроизводится операция, задаваемая параметром op, результаткоторой заносится в соответствующий элемент буфера recvbufветви с номером root. Так, например, если параметр op равенконстанте MPI_SUM, что означает суммирование элементов, то в i-йэлемент буфера recvbuf ветви с номером root будет записанасумма i-х элементов буферов sendbuf всех ветвей. Параметрrecvbuf имеет смысл лишь для ветви с номером root, для всехостальных ветвей он игнорируется.Для описания операций в MPI введен специальный типMPI_Op. MPI предоставляет ряд констант этого типа, описывающихстандартные операции, такие как суммирование (MPI_SUM),умножение (MPI_PROD), вычисление максимума и минимума(MPI_MAX и MPI_MIN) и т.д.
Кроме того, у программиста существуетвозможность описывать новые операции.Функцияпредставляет собой аналогMPI_Reduce() с той лишь разницей, что результирующий массивформируется на всех ветвях (и, соответственно, параметр recvbufтакже должен быть задан на всех ветвях):MPI_Allreduce()#include <mpi.h>int MPI_Allreduce(void* sendbuf, void* recvbuf, intcount, MPI_Datatype datatype, MPI_Op op, MPI_Commcomm);Функция MPI_Reduce_scatter() сочетает в себе возможностиMPI_Reduce() и MPI_Scatter():#include <mpi.h>int MPI_Reduce_scatter(void* sendbuf, void* recvbuf,int *recvcounts, MPI_Datatype datatype, MPI_Op op,MPI_Comm comm);В процессе ее выполнения сначала над массивами sendbufпоэлементно производится операция, задаваемая параметром op, а209затем результирующий массив разделяется на N частей, где N –количество ветвей в коммуникационном контексте, и каждая изветвей получает в буфере recvbuf свою часть в соответствии сосвоим номером.
Элементы массива recvcounts задают количествоэлементов, которое должно быть отправлено каждой ветви, чтопозволяет каждой ветви получать порции данных разной длины.Наконец, функция MPI_scan() представляет собой некотороесужение функции MPI_AllReduce():#include <mpi.h>int MPI_Scan(void*count, MPI_Datatypecomm);sendbuf, void* recvbuf, intdatatype, MPI_Op op, MPI_CommВ буфере recvbuf ветви с номером i после возврата из этойфункции будет находиться результат поэлементного примененияоперации op к буферам sendbuf ветвей с номерами от 0 до iвключительно. Очевидно, что в буфере recvbuf ветви с номером N1 будет получен тот же результат, что и для аналогичного вызоваMPI_Allreduce().Пример 36.
MPI:коммуникаций.применениеколлективныхВ данном примере производится приближенное вычислениечисла π путем численного интегрирования на отрезке методомпрямоугольников. Количество точек в разбиении определяетпользователь. Ветвь с номером 0 осуществляет ввод данных отпользователя, а затем, по окончании вычислений, - сбор данных отвсех ветвей и вывод результата.#include <mpi.h>#include <stdio.h>int main(int argc, char **argv){int size, rank, N, i;double h, sum, x, global_pi;MPI_Init(&argc,библиотеку */&argv);/*ИнициализируемMPI_Comm_size(MPI_COMM_WORLD, &size);210/*Узнаемколичествоприложении... */задачвзапущенномMPI_Comm_rank (MPI_COMM_WORLD, &rank);/* ...и свой собственный номер: от 0 до (size1) */if (rank == 0) {/* ветвь с номером 0 определяет количествоитераций...