ПОД (пособие) (1184372)
Текст из файла
Параллельная обработка данныхПособие по успокоению нервов перед эказаменом.Ни в коем случае не является официальным пособиемИздание 6-е, исправленное и дополненноеДополнения и исправления приветствуютсяВНИМАНИЕ!МАТЕРИАЛЫ СОБРАНЫ ПО ВСЕМУ ИНТЕРНЕТУ. К СОЖАЛЕНИЮ, ЕСТЬ НЕ ВСЕ.НАСКОЛЬКО СООТВЕТСТВУЕТ ТОЧКЕ ЗРЕНИЯ ЛЕКТОРА – НЕ ЗНАЮ.ИСПОЛЬЗОВАТЬ НА СВОЙ СТРАХ И РИСК, ПРЕДВАРИТЕЛЬНО ПОМОЛИВШИСЬ…А.
Ельцин, составитель и редактор.Москва, 2007Основы информатики. ______________________________________________________4Информация. Меры Хартли, Шеннона. ________________________________________4Знания и ЭВМ.____________________________________________________________5Эволюционная классификация вычислительных систем на примере развитияотечественной техники. ____________________________________________________ 10Критерий, положенный в основу эволюционной классификации ЭВМ. ____________ 10Основоположники отечественной вычислительной техники.
_____________________ 14Вычислители фон-Нейманновской архитектуры. Конвейерная обработка данных икоманд. Архитектура памяти._______________________________________________ 21Принципы фон-Нейманновской архитектуры ЭВМ. ____________________________ 22Конвейерная обработка данных. ____________________________________________ 22Зацепление конвейеров. ___________________________________________________ 25Векторно-конвейерные вычислители.
________________________________________ 27CISC и RISC архитектуры ЭВМ. ____________________________________________ 28Внеочередное и спекулятивное выполнения команд. ___________________________ 29Механизмы предсказания переходов. ________________________________________ 30Управление виртуальной памятью. __________________________________________ 32Полностью ассоциативная кэш-память. ______________________________________ 46Кэш-память с прямым отображением. _______________________________________ 48Частично ассоциативная кэш-память.
________________________________________ 49Дисциплина обновления кэш-памяти. ________________________________________ 51Стратегии записи в кэш-память. ____________________________________________ 52Расслоение памяти. _______________________________________________________ 54Принципы VLIW архитектуры.
_____________________________________________ 56Суперскалярные и мультитредовые архитектуры микропроцессоров.______________ 57Стандарт IA-64. __________________________________________________________ 61Оптимизация программ под архитектуру микропроцессора. _____________________ 63Архитектура параллельных вычислительных систем__________________________ 65Архитектура параллельных вычислительных систем ___________________________ 65Метакомпъютинг. ________________________________________________________ 69Кластерные архитектуры. __________________________________________________ 72Симметричные мультипроцессорные системы. ________________________________ 73Матричные мультипроцессорные системы.
___________________________________ 75Классификации вычислителей по Флинну. ____________________________________ 76Масштабируемость мультипроцессорных вычислителей.________________________ 79Управление памятью в мультипроцессорных системах. _________________________ 79Когерентность данных. ____________________________________________________ 84Топологии мультипроцессорных коммутационных сетей. ______________________ 85Типы внутренних связей. __________________________________________________ 85Статические и динамические коммуникаторы. ________________________________ 87Параметры статических коммутационных сетей._______________________________ 89Топологии линейки, решетки, пирамиды.
_____________________________________ 91Топология гиперкуба. _____________________________________________________ 93Согласование сеточных топологий со структурой гиперкуба. ____________________ 95Перекрестный коммутатор. ________________________________________________ 96Многокаскадные коммутационные сети. _____________________________________ 99Производительность вычислительных систем._______________________________ 101Пиковая производительность.
_____________________________________________ 101Методы оценки производительности. _______________________________________ 1022Закон Амдала. __________________________________________________________ 110Нетрадиционные архитектуры: потоковые и нейронные вычислители.
_________ 111Принципы потоковой обработки информации. _______________________________ 111Схемы потоковых вычислителей. __________________________________________ 112Нейронные сети. ________________________________________________________ 114Области применения нейронных сетей. _____________________________________ 117Параллельное программирование __________________________________________ 120Модели программирования для систем с разделяемой, распределенной памятью. __ 120Разделение последовательных программ на параллельные нити. _________________ 124Ограничения на распараллеливание циклов. _________________________________ 128Синхронизация параллельных процессов. Барьеры. ___________________________ 129Критические секции.
Двоичные и общие семафоры. ___________________________ 130Упорядоченные секции. Распараллелить цикл, используя упорядоченные секции исемафоры: _____________________________________________________________ 132Системы передачи сообщений. Фортран-GNS. _______________________________ 134Статический и динамический способы образования параллельных процессов. _____ 134Требования с системам программирования методом передачи сообщений. ________ 134Система программирования MPI.
__________________________________________ 136Средства описания и создания процессов в языке Фортран-GNS. ________________ 138Средства передачи и приема сообщений в языке Фортран-GNS. _________________ 143Протоколы передачи и приема сообщений в языке Фортран-GNS. _______________ 144Идентификация абонентов при передачи сообщений в языке Фортран-GNS.
_______ 148Адаптация последовательных программ к параллельным архитектурам.Векторизация и распараллеливание циклов. Методы координат, гиперплоскостей.________________________________________________________________________ 149Автоматическое распараллеливание последовательных программ. _______________ 149Семантика циклов, выполняемых параллельно на ОКМД системах. ______________ 153Алгоритмы преобразования программ методом координат. _____________________ 155Схема преобразования программ методом гиперплоскостей.
____________________ 162Метод параллелепипедов._________________________________________________ 163Оценить возможность параллельного выполнения цикла: ______________________ 164Языки параллельного программирования __________________________________ 164Стандарты OpenMP. _____________________________________________________ 164Язык Фортран-DVM. ____________________________________________________ 169Язык Sisal. _____________________________________________________________ 171Система программирования Норма. ________________________________________ 173Особенности выполнения арифметических выражения на ЭВМ. Распараллеливаниевычислительных алгоритмов. Метод распараллеливания алгоритма общейрекурсии 1-го порядка.
____________________________________________________ 174Распараллеливание алгоритмов сложения методом редукции ___________________ 174Метод распараллеливания алгоритма общей рекурсии 1-го порядка. _____________ 176Представление машинных чисел. __________________________________________ 177Арифметика машинных чисел. ____________________________________________ 182Погрешности при вычислениях чисел на параллельных системах. Оценить полнуюошибку суммирования положительных чисел.
________________________________ 189Точность плавающей арифметики. Машинный эпсилон. _______________________ 190Перечислить алгоритмы оптимизации объектных программ, которые могут повлиятьна точность вычислений. _________________________________________________ 1913Основы информатики.Информация.
Меры Хартли, Шеннона.Термин "информация" происходит от латинского слова "informatio", что означаетсведения, разъяснения, изложение. Несмотря на широкое распространение этого термина,понятие информации является одним из самых дискуссионных в науке. В настоящее времянаука пытается найти общие свойства и закономерности, присущие многогранномупонятию информация, но пока это понятие во многом остается интуитивным и получаетразличные смысловые наполнения в различных отраслях человеческой деятельности:в обиходе информацией называют любые данные или сведения, которые кого-либоинтересуют.
Например, сообщение о каких-либо событиях, о чьей-либо деятельности и т.п."Информировать" в этом смысле означает "сообщить нечто, неизвестное раньше";в технике под информацией понимают сообщения, передаваемые в форме знаков илисигналов;в кибернетике под информацией понимает ту часть знаний, которая используется дляориентирования, активного действия, управления, т.е. в целях сохранения,совершенствования, развития системы (Н. Винер).Клод Шеннон, американский учёный, заложивший основы теории информации — науки,изучающей процессы, связанные с передачей, приёмом, преобразованием и хранениеминформации, — рассматривает информацию как снятую неопределенность наших знаний очем-то.Приведем еще несколько определений:Информация — это сведения об объектах и явлениях окружающей среды, их параметрах,свойствах и состоянии, которые уменьшают имеющуюся о них степень неопределенности,неполноты знаний (Н.В. Макарова);Информация — это отрицание энтропии (Леон Бриллюэн);Информация — это мера сложности структур (Моль);Информация — это отраженное разнообразие (Урсул);Информация — это содержание процесса отражения (Тузов);Информация — это вероятность выбора (Яглом).Современное научное представление об информации очень точно сформулировал НорбертВинер, "отец" кибернетики.
А именно:Информация — это обозначение содержания, полученного из внешнего мира в процессенашего приспособления к нему и приспособления к нему наших чувств.Подходы к определению количества информации. Формулы Хартли и Шеннона.Американский инженер Р. Хартли в 1928 г. процесс получения информации рассматривалкак выбор одного сообщения из конечного наперёд заданного множества из Nравновероятных сообщений, а количество информации I, содержащееся в выбранномсообщении, определял как двоичный логарифм N.Формула Хартли: I = log2NДопустим, нужно угадать одно число из набора чисел от единицы до ста. По формулеХартли можно вычислить, какое количество информации для этого требуется: I = log2100 >6,644.
Таким образом, сообщение о верно угаданном числе содержит количествоинформации, приблизительно равное 6,644 единицы информации.4Для задач такого рода американский учёный Клод Шеннон предложил в 1948 г. другуюформулу определения количества информации, учитывающую возможную неодинаковуювероятность сообщений в наборе.Формула Шеннона: I = — ( p1log2 p1 + p2 log2 p2 + . . .
Характеристики
Тип файла PDF
PDF-формат наиболее широко используется для просмотра любого типа файлов на любом устройстве. В него можно сохранить документ, таблицы, презентацию, текст, чертежи, вычисления, графики и всё остальное, что можно показать на экране любого устройства. Именно его лучше всего использовать для печати.
Например, если Вам нужно распечатать чертёж из автокада, Вы сохраните чертёж на флешку, но будет ли автокад в пункте печати? А если будет, то нужная версия с нужными библиотеками? Именно для этого и нужен формат PDF - в нём точно будет показано верно вне зависимости от того, в какой программе создали PDF-файл и есть ли нужная программа для его просмотра.