Lect_3_131015 (MPI)

PDF-файл Lect_3_131015 (MPI) Параллельное программирование для высокопроизводительных вычислительных систем (64215): Лекции - 11 семестр (3 семестр магистратуры)Lect_3_131015 (MPI) - PDF (64215) - СтудИзба2020-08-25СтудИзба
MPI21

Описание файла

Файл "Lect_3_131015" внутри архива находится в папке "MPI". PDF-файл из архива "MPI", который расположен в категории "". Всё это находится в предмете "параллельное программирование для высокопроизводительных вычислительных систем" из 11 семестр (3 семестр магистратуры), которые можно найти в файловом архиве МГУ им. Ломоносова. Не смотря на прямую связь этого архива с МГУ им. Ломоносова, его также можно найти и в других разделах. .

Просмотр PDF-файла онлайн

Текст из PDF

Параллельное программирование длявысокопроизводительныхвычислительных систем2015 – 2016 уч. г.Лектор: доцент Н.Н.Попова,Лекция 3Тема: «MPI. Неблокирующие и коллективныепередачи»09 октября 2015 г.Спецкурс "Параллельное программированиедля высокопроизводительных систем",Лекция 31Пример : скалярное произведение векторов.Алгоритм.Алгоритм: Считаем, что элементы векторов А и В равномернораспределены по процессам.

Число элементов векторовкратно числу процессов. Начальные значения векторов определяются каждымпроцессом Схема алгоритма: главный-подчиненный (master-slave) Главный (master):- обработка входных данных (чтение количества элементоввекторов из командной строки)- рассылка данных по подчиненным- прием результатов (локальных сумм) от подчиненных- вычисление общей суммы Завершение работыСпецкурс "Параллельное программированиедля высокопроизводительных систем",Лекция 32Пример : скалярное произведение.

Главныйпроцесс.Главный (master):- обработка входных данных (чтение количества элементоввекторов из командной строки)- рассылка данных по подчиненнымfor (i=1; i<Nproc; i++)MPI_Send( …. )- прием результатов (локальных сумм) от подчиненныхfor (i=1; i<Nproc; i++)MPI_Recv( …….)- вычисление общей суммыЗавершение работыMPI_Finalize()Спецкурс "Параллельное программированиедля высокопроизводительных систем",Лекция 33Пример : скалярное произведение. Подчиненныепроцессы.Подчиненные процессы (slaves) Прием информации о числе элементов от MasterMPI_Recv (…..) Создание локальных массивов в динамической памяти Определение начальных значений элементов векторов Вычисление локальных сумм Пересылка вычисленных значений процессу MasterMPI_Send ( ) Завершение работыMPI_Finalize ()Спецкурс "Параллельное программированиедля высокопроизводительных систем",Лекция 34Пример : скалярное произведение.Реализация#include <stdio.h>#include <stdlib.h>#include <mpi.h>void dataRead(double *v, int n);double localSum(double *a,double *b, int n);/***************************************/int main(int argc, char *argv[]){int nProc, myRank;int root =0;int tag =0;int i, N, N_local;double partialSum, totalSum=0.0;double *a_local, *b_local;double timeStart,timeFinish;MPI_Status status;Спецкурс "Параллельное программированиедля высокопроизводительных систем",Лекция 35Пример : скалярное произведение.Реализация.

Master.MPI_Init(&argc, &argv);MPI_Comm_rank(MPI_COMM_WORLD, &myRank);MPI_Comm_size(MPI_COMM_WORLD, &nProc);if (myRank == root){timeStart = -MPI_Wtime();N = (int)(atof(argv[1]));N_local= N/nProc;for (i=1;i<nProc;i++)MPI_Send(&N_local, 1, MPI_INT, i, tag, MPI_COMM_WORLD);for (i=1;i<nProc;i++){MPI_Recv(&partialSum, 1, MPI_DOUBLE, i, MPI_ANY_SOURCE,tag,MPI_COMM_WORLD,&status);totalSum+=partialSum;}timeFinish = MPI_Wtime();printf(" Sum of vector =%e\n",totalSum);printf(" Program Run time = %d\n", timeStart+timeFinish);}Спецкурс "Параллельное программированиедля высокопроизводительных систем",Лекция 36Пример : скалярное произведение.Реализацияelse {MPI_Recv(&N_local, 1, MPI_INT, root, tag, MPI_COMM_WORLD,&status);a_local=(double *) malloc(N_local*sizeof(double));b_local=(double *) malloc (N_local*sizeof(double));dataRead(a_local, N_local); dataRead(b_local, N_local);partialSum=localSum(a_local,b_local,N_local);MPI_Send(&partialSum,1,MPI_DOUBLE,root,tag,MPI_COMM_WORLD);free(a_local); free(b_local);}MPI_Finalize();return 0;}Спецкурс "Параллельное программированиедля высокопроизводительных систем",Лекция 37Пример : скалярное произведение.Реализация/***********************************************************/void dataRead(double *v, int n){int i;for (i=0; i<n; i++)v[i]= (double)i;} /*dataRead*//***********************************************************/double localSum(double *a, double *b, int n){int i;double sum=0.0;for (i=0; i<n; i++)sum+=a[i]*b[i];;return sum;}/*localSum*/Спецкурс "Параллельное программированиедля высокопроизводительных систем",Лекция 38Трансляция программысистема Regatta (IBM pSeries 690)%mpicc –o dot_pr dot_pr.cСправочная информация по опциям компилятора% mpicc – helpСпецкурс "Параллельное программированиедля высокопроизводительных систем",Лекция 39Запуск программы на счетОбычно:%mpirun –np 4 dot_pr 40000 Запуск на Regatta под управлением системыуправления заданиями LoadLeveler%mpisubmit –w 01:00 –n 8 dot_pr- одна минута- 8 процессовСпецкурс "Параллельное программированиедля высокопроизводительных систем",Лекция 310Запуск программы на счетmpisubmit [<параметры mpisubmit>] <имя задачи – название исполняемогофайла> [<параметры задачи>]Параметры mpisubmit:-w лимит счетного времени предполагаемое время счета задания в формате чч:мм:сс илисс, или мм:сс; ( По умолчанию 10 минут)-n число процессоров, максимально 16, по умолч.

1-m почтовый адрес<username>@regatta.cmc.msu.ruНа данный адрес будет послана информация по завершению задачи-stdout файл для потока выводаИмя_задания.nnnn.outв каталог, из которого происходила постановка задания в очередь.-stderr файл для потока ошибокимя_задания.nnnn.errв каталог, из которого происходила постановка задания в очередь.-stdin файл для потока вводаСпецкурс "Параллельное программированиедля высокопроизводительных систем",Лекция 311БАЗОВАЯ ИНСТРУКЦИЯ ПО РАБОТЕ на ВСRegattaВыход на систему:локальная машина>ssh <логин>@regatta.cs.msu.suКопировать файл с локального компьютера на Regatta:локальная машина>scp file <логин>@regatta.cs.msu.su:~/fileКомпиляция MPI-программы (на языке C, C++ и Fortran90 соответственно):>mpicc prog.c -o prog>mpiCC prog.cpp -o prog>mpif90 prog.F -o progПостановка программы в очередь задач с лимитом выполнения 15 минут начетыре процессора c параметром командной строки parameter:>mpisubmit -w 15:00 -n 4 prog parameterПросмотреть состояние очереди:>llqУдалить задачу с ID regatta.1111 из очереди задач:>llcancel regatta.1111Полное руководство по ссылке: http://regatta.cmc.msu.ruСпецкурс "Параллельное программированиедля высокопроизводительных систем",Лекция 312Функции MPI передачи«точка-точка»Спецкурс "Параллельное программированиедля высокопроизводительных систем",Лекция 313Схема передачиСпецкурс "Параллельное программированиедля высокопроизводительных систем",Лекция 314Системный буферВнешний объект по отношению к MPI-программеНе оговаривается в стандарте => зависит от реализацииИмеет конечный размер => может переполнятьсяЧасто не документируетсяМожет существовать как еа передающей стороне, так и напринимающей или на обеих сторонахПовышает производительность параллельной программыСпецкурс "Параллельное программированиедля высокопроизводительных систем",Лекция 31515Режимы (моды) операций передачисообщенийРежимы MPI-коммуникаций определяют, при какихусловиях операции передачи завершаютсяРежимы могут быть блокирующими илинеблокирующими Блокирующие: возврат из функций передачисообщений только по завершению коммуникаций Неблокирующие (асинхронные): немедленныйвозврат из функций, пользователь долженконтролировать завершение передачСпецкурс "Параллельное программированиедля высокопроизводительных систем",Лекция 316Режимы передачиРежим (Mode)Условие завершения (Completion Condition)SynchronoussendBuffered sendЗавершается только при условии инициацииприемаВсегда завершается (за исключениемошибочных передач), независимо от приемаСообщение отослано (состояние приеманеизвестно)Всегда завершается (за исключениемошибочных передач), независимо от приемаЗавершается по приему сообщенияStandard sendReady sendReceiveСпецкурс "Параллельное программированиедля высокопроизводительных систем",Лекция 317Фунции передачи сообщений «точка-точка»(блокирующие)Режим (MODE)MPI функцииStandard sendMPI_SendSynchronous sendMPI_SsendBuffered sendMPI_BsendReady sendMPI_RsendReceiveMPI_RecvСпецкурс "Параллельное программированиедля высокопроизводительных систем",Лекция 318Синхронный send (MPI_Ssend)Критерий завершения: принимающий процесс посылаетподтверждение (“handshake”), которое должно бытьполучено отправителем прежде, чем send может считатьсязавершеннымИспользуется в случаях, когда надо точно знать, чтосообщение полученоПосылающий и принимающий процессы синхронизируются Независимо от того, кто работает быстрее Idle time (простой) процесса возможенСамый безопасный режим работыСпецкурс "Параллельное программированиедля высокопроизводительных систем",Лекция 319Buffered send (MPI_Bsend)Критерий завершения: завершение передачи, когда сообщениескопируется в буферПреимущество: гарантировано немедленное завершениепередачи (предсказуемость)Недостатки: надо явно выделять буфер под сообщенияФункции MPI для контроля буферного пространстваMPI_Buffer_attachMPI_Buffer_detachСпецкурс "Параллельное программированиедля высокопроизводительных систем",Лекция 320MPI_Buffer_attachint MPI_Buffer_attach(void *buffer, int size )int MPI_Buffer_deattach(void *buffer)Каждый вызов MPI_Buffer_attach требует дополнительныйобъем памяти, максимальный размер определяется константойMPI_BSEND_OVERHEAD в mpi.hСпецкурс "Параллельное программированиедля высокопроизводительных систем",Лекция 321MPI_Buffer_attachif (myrank == 0) {/* Attach buffer, do buffered send, and then detach buffer */size=2*sizeof(double)*NELEM+2* MPI_BSEND_OVERHEAD;buffer = (void*)malloc(size); rc = MPI_Buffer_attach(buffer, size);if (rc != MPI_SUCCESS){ printf("Buffer attach failed.

Свежие статьи
Популярно сейчас
Зачем заказывать выполнение своего задания, если оно уже было выполнено много много раз? Его можно просто купить или даже скачать бесплатно на СтудИзбе. Найдите нужный учебный материал у нас!
Ответы на популярные вопросы
Да! Наши авторы собирают и выкладывают те работы, которые сдаются в Вашем учебном заведении ежегодно и уже проверены преподавателями.
Да! У нас любой человек может выложить любую учебную работу и зарабатывать на её продажах! Но каждый учебный материал публикуется только после тщательной проверки администрацией.
Вернём деньги! А если быть более точными, то автору даётся немного времени на исправление, а если не исправит или выйдет время, то вернём деньги в полном объёме!
Да! На равне с готовыми студенческими работами у нас продаются услуги. Цены на услуги видны сразу, то есть Вам нужно только указать параметры и сразу можно оплачивать.
Отзывы студентов
Ставлю 10/10
Все нравится, очень удобный сайт, помогает в учебе. Кроме этого, можно заработать самому, выставляя готовые учебные материалы на продажу здесь. Рейтинги и отзывы на преподавателей очень помогают сориентироваться в начале нового семестра. Спасибо за такую функцию. Ставлю максимальную оценку.
Лучшая платформа для успешной сдачи сессии
Познакомился со СтудИзбой благодаря своему другу, очень нравится интерфейс, количество доступных файлов, цена, в общем, все прекрасно. Даже сам продаю какие-то свои работы.
Студизба ван лав ❤
Очень офигенный сайт для студентов. Много полезных учебных материалов. Пользуюсь студизбой с октября 2021 года. Серьёзных нареканий нет. Хотелось бы, что бы ввели подписочную модель и сделали материалы дешевле 300 рублей в рамках подписки бесплатными.
Отличный сайт
Лично меня всё устраивает - и покупка, и продажа; и цены, и возможность предпросмотра куска файла, и обилие бесплатных файлов (в подборках по авторам, читай, ВУЗам и факультетам). Есть определённые баги, но всё решаемо, да и администраторы реагируют в течение суток.
Маленький отзыв о большом помощнике!
Студизба спасает в те моменты, когда сроки горят, а работ накопилось достаточно. Довольно удобный сайт с простой навигацией и огромным количеством материалов.
Студ. Изба как крупнейший сборник работ для студентов
Тут дофига бывает всего полезного. Печально, что бывают предметы по которым даже одного бесплатного решения нет, но это скорее вопрос к студентам. В остальном всё здорово.
Спасательный островок
Если уже не успеваешь разобраться или застрял на каком-то задание поможет тебе быстро и недорого решить твою проблему.
Всё и так отлично
Всё очень удобно. Особенно круто, что есть система бонусов и можно выводить остатки денег. Очень много качественных бесплатных файлов.
Отзыв о системе "Студизба"
Отличная платформа для распространения работ, востребованных студентами. Хорошо налаженная и качественная работа сайта, огромная база заданий и аудитория.
Отличный помощник
Отличный сайт с кучей полезных файлов, позволяющий найти много методичек / учебников / отзывов о вузах и преподователях.
Отлично помогает студентам в любой момент для решения трудных и незамедлительных задач
Хотелось бы больше конкретной информации о преподавателях. А так в принципе хороший сайт, всегда им пользуюсь и ни разу не было желания прекратить. Хороший сайт для помощи студентам, удобный и приятный интерфейс. Из недостатков можно выделить только отсутствия небольшого количества файлов.
Спасибо за шикарный сайт
Великолепный сайт на котором студент за не большие деньги может найти помощь с дз, проектами курсовыми, лабораторными, а также узнать отзывы на преподавателей и бесплатно скачать пособия.
Популярные преподаватели
Нашёл ошибку?
Или хочешь предложить что-то улучшить на этой странице? Напиши об этом и получи бонус!
Бонус рассчитывается индивидуально в каждом случае и может быть в виде баллов или бесплатной услуги от студизбы.
Предложить исправление
Добавляйте материалы
и зарабатывайте!
Продажи идут автоматически
5076
Авторов
на СтудИзбе
455
Средний доход
с одного платного файла
Обучение Подробнее