Спец часть (часть 3) (3 поток) (2015) (by Кибитова) (1161603), страница 49
Текст из файла (страница 49)
Процесс может отправитьсообщение и самому себе, но следует учитывать,что использование в этом случае блокирующихопераций может привести к «тупику». Передача сообщения в буферизованномрежиме может быть начата независимо от того,зарегистрирован ли соответствующий прием.Источник копирует сообщение в буфер, а затемпередает его в неблокирующем режиме, так жекак в стандартном режиме.Эта операция локальна, поскольку еевыполнение не зависит от наличиясоответствующего приема.Если объем буфера недостаточен, возникаетошибка.
Выделение буфера и его размерконтролируются программистом. Размер буфера должен превосходить размер сообщенияна величину MPI_BSEND_OVERHEAD. Это дополнительноепространство используется подпрограммойбуферизованной передачи для своих целей.Если перед выполнением операции буферизованногообмена не выделен буфер, MPI ведет себя так, как еслибы с процессом был связан буфер нулевого размера.Работа с таким буфером обычно завершается сбоемпрограммы.Буферизованный обмен рекомендуется использовать втех ситуациях, когда программисту требуется большийконтроль над распределением памяти.
Этот режимудобен и для отладки, поскольку причину переполнениябуфера определить легче, чем причину тупика. Буферизованная передача завершается сразу, посколькусообщение немедленно копируется в буфер дляпоследующей передачи. В отличие от стандартногообмена, в этом случае работа источника и адресата несинхронизована: intПослеMPI_Bsend(voidcount, его необходимозавершения *buf,работыintс буферомMPI_Datatypedest, int tag,отключить: datatype, intMPI_Commcomm)intMPI_Buffer_detach(void*buf, int *size) MPI_Bsend(buf, count, datatype, dest, tag,MPI_Buffer_detach(buf, size, ierr)comm, ierr)Возвращается адрес (buf) и размер отключаемого буфера(size).
Эта операция блокирует работу процесса до тех пор,пока все сообщения, находящиеся в буфере, не будутобработаны. Вызов данной подпрограммы можноиспользовать для форсированной передачи сообщений.После завершения вызова можно вновь использоватьпамять, которую занимал буфер.
В языке C данный вызовне освобождает автоматически память, отведенную длябуфера.Завершение передачи происходит только после того,как прием сообщения инициализирован другимпроцессом.Адресат посылает источнику «квитанцию» уведомление о завершении приема. После полученияэтого уведомления обмен считается завершенным иисточник "знает", что его сообщение получено:int MPI_Ssend(void *buf, int count,Передача«по готовности»с помощьюMPI_Datatypedatatype, выполняетсяint dest, inttag,подпрограммыMPI_Comm comm)int MPI_Rsend(void *buf, int count, MPI_Datatypedatatype,intdest, inttag, MPI_Commcomm)Передача «поготовности»выполняетсяс помощьюподпрограммыMPI_Rsend(buf,count,datatype,dest,MPI_Datatypetag, comm,int MPI_Rsend(void*buf,int count,ierr)datatype, int dest, int tag, MPI_Comm comm)MPI_Rsend(buf,count, должнаdatatype,dest, tag,comm,Передача«по готовности»начинаться,еслиужеierr)зарегистрирован соответствующий прием.
Принесоблюдении этого условия результат выполненияПередача не«поопределен.готовности» должна начинаться, если уже операциизарегистрирован соответствующий прием. Принесоблюдении этого условия результат выполненияоперации не определен.Завершается она сразу же. Если прием не зарегистрирован,результат выполнения операции не определен.Завершение передачи не зависит от того, вызвана ли другимпроцессом подпрограмма приема данного сообщения илинет, оно означает только, что буфер передачи можноиспользовать вновь.Сообщение просто выбрасывается в коммуникационную сетьв надежде, что адресат его получит.
Эта надежда может и несбыться. Обмен «по готовности» может увеличитьпроизводительность программы, поскольку здесь неиспользуются этапы установки межпроцессных связей, атакже буферизация.Все этооперации, требующие времени. С другойстороны, обмен «по готовности» потенциально опасен,кроме того, он усложняет отладку, поэтому егорекомендуется использовать только в том случае, когдаправильная работа программы гарантируется еелогической структурой, а выигрыша в быстродействиинадо добиться любой ценой.
Подпрограмма MPI_Sendrecv выполняет прием и передачуданных с блокировкой:int MPI_Sendrecv(void *sendbuf, int sendcount,MPI_Datatype sendtype, int dest, int sendtag, void*recvbuf, int recvcount, MPI_Datatype recvtype,int source, int recvtag, MPI_Comm comm, MPI_Status*status)Подпрограмма MPI_Sendrecv_replace выполняетприем и передачу данных, используя общий буфер дляпередачи и приёма:int MPI_Sendrecv_replace(void *buf, int count,MPI_Datatype datatype, int dest, int sendtag, intsource,int recvtag, MPI_Comm comm, MPI_Status*status) Вызов подпрограммы неблокирующейпередачи инициирует, но не завершает ее.Завершиться выполнение подпрограммы можетеще до того, как сообщение будетскопировано в буфер передачи.Применение неблокирующих операцийулучшает производительность программы,поскольку в этом случае допускаетсяперекрытие (то есть одновременноевыполнение) вычислений и обменов.
Передачаданных из буфера или их считывание можетпроисходить одновременно с выполнениемпроцессом другой работы. Для завершения неблокирующего обменатребуется вызов дополнительной процедуры,которая проверяет, скопированы ли данные вбуфер передачи.ВНИМАНИЕ!При неблокирующем обмене возвращение изподпрограммы обмена происходит сразу, нозапись в буфер или считывание из него послеэтого производить нельзя - сообщение можетбыть еще не отправлено или не получено иработа с буфером может «испортить» егосодержимое.
Неблокирующий обмен выполняется в два этапа:1. инициализация обмена;2. проверка завершения обмена. Разделение этих шагов делает необходимыммаркировку каждой операции обмена, котораяпозволяет целенаправленно выполнятьпроверки завершения соответствующихопераций.Для маркировки в неблокирующих операцияхиспользуются идентификаторы операцийобменаВызовы подпрограмм неблокирующего обменаформируютзапрос на выполнение операции обмена исвязывают его с идентификатором операции request.Запрос идентифицирует свойства операции обмена:режим;характеристики буфера обмена;контекст;тег и ранг.Запрос содержит информацию о состоянии ожидающихобработки операций обмена и может быть использовандля получения информации о состоянии обмена или дляожидания его завершения.Проверка фактического выполнения передачи илиприема в неблокирующем режиме осуществляется спомощью вызова подпрограмм ожидания, блокирующихработу процесса до завершения операции илинеблокирующих подпрограмм проверки,возвращающих логическое значение «истина», еслиоперация выполнена В том случае, когда одновременно несколькопроцессов обмениваются сообщениями, можноиспользовать проверки, которые применяютсяодновременно к нескольким обменам.Есть три типа таких проверок:1.
проверка завершения всех обменов;2. проверка завершения любого обмена из нескольких;3. проверка завершения заданного обмена изнескольких.Каждая из этих проверок имеет две разновидности:1. «ожидание»; 2. «проверка».Подпрограмма MPI_Wait блокирует работу процесса дозавершения приема или передачи сообщения: int MPI_Wait(MPI_Request *request, MPI_Status*status)MPI_Wait(request, status, ierr)Входной параметр requestидентификатор операцииобмена, выходнойстатус (status).В результате выполнения подпрограммы MPI_Waitallзапросы, сформированные неблокирующими операциямиобмена, аннулируются, а соответствующим элементам массиваприсваивается значение MPI_REQUEST_NULL.В случае неуспешного выполнения одной или более операцийобмена подпрограмма MPI_Waitall возвращает код ошибкиMPI_ERR_IN_STATUS и присваивает полю ошибки статусазначение кода ошибки соответствующей операции.Если операция выполнена успешно, полю присваиваетсязначение MPI_SUCCESS, а если не выполнена, но и не былоошибки - значение MPI_ERR_PENDING.
Это соответствуетналичию запросов на выполнение операции обмена,ожидающих обработки.Блокирующая проверка: int MPI_Probe(int source, inttag, MPI_Comm coMPI_Status* status)Неблокирующая проверка:intMPI_Iprobe(inttag, MPI_Comm cПодпрограммаMPI_Testsource,выполняетintнеблокирующуюint*flag,MPI_Status*status)проверкузавершенияприема илипередачи сообщения:Входные параметры этой подпрограммы те же, что и уint MPI_Test(MPI_RequestподпрограммыMPI_Probe. *request, int *flag,MPI_Status*status)Выходныепараметры:Блокирующая проверка:flag - флаг;int MPI_Probe(int source, int tag, MPI_Comm comm,statusпараметр:-status)статус. идентификатор операции обменаВходнойMPI_Status* request.Неблокирующая проверка:Еслисообщениеуже поступиломожет бытьВыходныепараметры:intMPI_Iprobe(intsource,int tag, иMPI_Commcomm,принято,возвращаетсязначениефлага«истина».int *flag, MPI_Status *status)flag«истина», если операция, заданнаяидентификаторомrequest,тевыполнена;Входныепараметры этой подпрограммыже, что и уподпрограммы MPI_Probe.statusстатус выполненной операции.Выходныепараметры:Передачасообщений между группойflag - флаг;statusстатус.процессовВызываютсяпроцессамив принято,Если сообщениеВСЕМИуже поступилои может бытьвозвращаетсязначениефлага«истина».коммуникатореПримеры:◦ Broadcast, scatter, gather (рассылка данных)◦ Global sum, global maximum, и.т.д.(редукционные операции)◦ Барьерная синхронизаци Коллективные операции не являются помехойоперациям типа точка-точка и наоборотВсе процессы коммуникатора должны вызыватьколлективную операциюСинхронизация не гарантируется (за исключениембарьера)Нет неблокирующих коллективных операцийНет тэговПринимающий буфер должен точно соответствоватьразмеру отсылаемого буфераOne-to-all передача: один и тот же буферотсылается от процесса root всемостальным процессам в коммуникатореint MPI_Bcast (void *buffer, int, count,MPI_Datatype datatype,int root, MPI_Commcomm) Все процессы должны указать один тот жеroot и communicatorOne-to-all communication: различные данные изодного процесса рассылаются всем процессамкоммуникатора (в порядке их номеров)int MPI_Scatter(void* sendbuf, int sendcount,MPI_Datatype sendtype, void* recvbuf,int recvcount,MPI_Datatype recvtype,int root, MPI_Comm comm) sendcount - число элементов, посланных каждомупроцессу, не общее число отосланных элементов;send параметры имеют смысл только для процессаAll-to-one передачи: различные данные собираютсяrootпроцессом rootСбор данных выполняется в порядке номеровпроцессов.Длина блоков предполагается одинаковой, т.е.
данные,посланные процессом i из своего буфера sendbuf,помещаются в i-ю порцию буфера recvbuf процессаroot.Длина массива, в который собираются данные, должнабыть достаточной для их размещения. int MPI_Gather(void* sendbuf, int sendcount,MPI_Datatype sendtype, void* recvbuf, intrecvcount,MPI_Datatype recvtype, int root, MPI_Comm comm)int MPI_Alltoall (void* sendbuf,int sendcount, /* in */MPI_Datatype sendtype, /* in */void* recvbuf, /* out */int recvcount, /* in */MPI_Datatype recvtype, /* in */MPI_Comm comm); Описание:Рассылка сообщений от каждого процесса каждомуj-ый блок данных из процесса i принимается j-ымпроцессом и размещается в i-ом блоке буфера recvbuf.