Кластерные системы
| Категория реферата: Рефераты по информатике, программированию
| Теги реферата: сочинения по русскому языку, реклама реферат
| Добавил(а) на сайт: Evfalija.
Предыдущая страница реферата | 1 2 3 4 5 6 | Следующая страница реферата
MPI-процессы внутри этой системы обмениваются сообщениями через разделяемую память (необходимо настроить MPICH соответствующим образом).
2. На каждой машине запускается только один MPI-процесс. Внутри каждого
MPI-процесса производится распараллеливание в модели "общей памяти", например с помощью директив OpenMP.
После установки реализации MPI имеет смысл протестировать реальную
производительность сетевых пересылок.
Кроме MPI, есть и другие библиотеки и системы параллельного
программирования, которые могут быть использованы на кластерах.
Пример реализации кластера Beowulf - Avalon
В 1998 году в Лос-аламосской национальной лаборатории астрофизик Michael
Warren и другие ученые из группы теоретической астрофизики построили
суперкомпьютер Avalon, который представляет из себя Beowulf -кластер на
базе процессоров DEC Alpha/533MHz. Avalon первоначально состоял из 68
процессоров, затем был расширен до 140. В каждом узле установлено 256MB
оперативной памяти, EIDE-жесткий диск на 3.2GB, сетевой адаптер от Kingston
(общая стоимость узла - $1700). Узлы соединены с помощью 4-х 36-портовых
коммутаторов Fast Ethernet и расположенного "в центре" 12-портового
коммутатора Gigabit Ethernet от 3Com.
Общая стоимость Avalon - $313 тыс., а его производительность по LINPACK
(47.7 GFLOPS) позволила ему занять 114 место в 12-й редакции списка Top500
(рядом с 152-процессорной системой IBM SP2). 70-процессорная конфигурация
Avalon по многим тестам показала такую же производительность, как 64-
процессорная система SGI Origin2000/195MHz стоимость которой превышает $1
млн.
В настоящее время Avalon активно используется в астрофизических, молекулярных и других научных вычислениях. На конференции SC'98 создатели
Avalon представили доклад, озаглавленный "Avalon: An Alpha/Linux Cluster
Achieves 10 Gflops for $150k" и заслужили премию по показателю
цена/производительность ("1998 Gordon Bell Price/Performance Prize").
Заключение
Ведущие производители микропроцессоров: Sun Microsystems, Dell и IBM
придерживаются одинаковой точки зрения на будущее отрасли суперкомпьютеров:
на смену отдельным, независимым суперкомпьютерам должны прийти группы
высокопроизводительных серверов, объединяемых в кластер. Уже сегодня
распределенные кластерные системы опережают современные классические
суперкомпьютеры по производительности: самый мощный на сегодняшний день
компьютер в мире — IBM ASCI White — обладает производительностью в 12
ТераФЛОП, производительность сети SETI@Home оценивается примерно в 15
ТераФЛОП. При этом, IBM ASCI White был продан за 110 миллионов долларов, а
за всю историю существования SETI@Home было потрачено около 500 тысяч
долларов.
Проанализировав итоги работ, выполненных в рамках проекта Beowulf, можно
прийти к следующему выводу: найденные решения позволяют самостоятельно
собрать высокопроизводительный кластер на базе стандартных для ПК
компонентов и использовать обычное программное обеспечение. Среди самых
крупных экземпляров нельзя не отметить 50-узловой кластер в CESDIS, включающий 40 узлов обработки данных (на базе одно- и двухпроцессорных плат
Рentium Рro/200 МГц) и 10 масштабирующих узлов (двухпроцессорная плата
Рentium Рro/166 МГц). Соотношение стоимость/пиковая производительность в
таком кластере представляется очень удачным. Вопрос в том, насколько
эффективно удается распараллелить приложения - иными словами, какова будет
реальная, а не пиковая производительность. Над решением этой проблемы
сейчас и работают участники проекта.
Литература
1. http://www.citforum.ru/hardware/svk/glava_12.shtml
2. http://www.beowulf.com
3. http://newton.gsfc.nasa.gov/thehive/
4. LoBoS, http://www.lobos.nih.gov
5. http://parallel.ru/news/kentucky_klat2.html
6. http://parallel.ru/news/anl_chibacity.html
7. http://parallel.ru/cluster/
8. http://www.ptc.spbu.ru
Resources
MIMD компьютеры
MIMD компьютер имеет N процессоров, независимо исполняющих N потоков команд
и обрабатывающих N потоков данных. Каждый процессор функционирует под
управлением собственного потока команд, то есть MIMD компьютер может
параллельно выполнять совершенно разные программы.
[pic]
MIMD архитектуры далее классифицируются в зависимости от физической
организации памяти, то есть имеет ли процессор свою собственную локальную
память и обращается к другим блокам памяти, используя коммутирующую сеть, или коммутирующая сеть подсоединяет все процессоры к общедоступной памяти.
Исходя из организации памяти, различают следующие типы параллельных
архитектур:
Компьютеры с распределенной памятью (Distributed memory)
Процессор может обращаться к локальной памяти, может посылать и получать сообщения, передаваемые по сети, соединяющей процессоры. Сообщения используются для осуществления связи между процессорами или, что эквивалентно, для чтения и записи удаленных блоков памяти. В идеализированной сети стоимость посылки сообщения между двумя узлами сети не зависит как от расположения обоих узлов, так и от трафика сети, но зависит от длины сообщения.
[pic]
Компьютеры с общей (разделяемой) памятью (True shared memory)
Все процессоры совместно обращаются к общей памяти, обычно, через шину или иерархию шин. В идеализированной PRAM (Parallel Random Access Machine - параллельная машина с произвольным доступом) модели, часто используемой в теоретических исследованиях параллельных алгоритмов, любой процессор может обращаться к любой ячейке памяти за одно и то же время. На практике масштабируемость этой архитектуры обычно приводит к некоторой форме иерархии памяти. Частота обращений к общей памяти может быть уменьшена за счет сохранения копий часто используемых данных в кэш-памяти, связанной с каждым процессором. Доступ к этому кэш-памяти намного быстрее, чем непосредственно доступ к общей памяти.
[pic]
Компьютеры с виртуальной общей (разделяемой) памятью (Virtual shared
memory)
Общая память как таковая отсутствует. Каждый процессор имеет собственную
локальную память и может обращаться к локальной памяти других процессоров, используя "глобальный адрес". Если "глобальный адрес" указывает не на
локальную память, то доступ к памяти реализуется с помощью сообщений, пересылаемых по коммуникационной сети.
Примером машин с общей памятью могут служить:
Sun Microsystems (многопроцессорные рабочие станции)
Silicon Graphics Challenge (многопроцессорные рабочие станции)
Sequent Symmetry
Convex
Cray 6400.
Следующие компьютеры относятся к классу машин с распределенной памятью
IBM-SP1/SP2
Parsytec GC
CM5 (Thinking Machine Corporation)
Cray T3D
Paragon (Intel Corp.)
KSR1
nCUBE
Meiko CS-2
AVX (Alex Parallel Computers)
IMS B008
MIMD архитектуры с распределенной памятью можно так же классифицировать по
пропускной способности коммутирующей сети. Например, в архитектуре, в
которой пары из процессора и модуля памяти (процессорный элемент) соединены
сетью с топологий реш§тка, каждый процессор имеет одно и то же число
подключений к сети вне зависимости от числа процессоров компьютера. Общая
пропускная способность такой сети растет линейно относительно числа
процессоров. С другой стороны в архитектуре, имеющей сеть с топологий
гиперкуб, число соединений процессора с сетью является логарифмической
функцией от числа процессоров, а пропускная способность сети растет
быстрее, чем линейно по отношению к числу процессоров. В топологии клика
каждый процессор должен быть соединен со всеми другими процессорами.
[pic]
Сеть с топологией 2D реш§тка(тор)
[pic]
Сеть с топологией 2D тор
[pic]
Сеть с топологией клика
Национального Центра Суперкомпьютерных Приложений (университет шт.
Иллинойс, Urbana-Champaign)
MPI: The Message Passing Interface
Название "интерфейс передачи сообщений", говорит само за себя. Это хорошо
стандартизованный механизм для построения параллельных программ в модели
обмена сообщениями. Существуют стандартные "привязки" MPI к языкам С/С++,
Fortran 77/90. Существуют бесплатные и коммерческие реализации почти для
всех суперкомпьютерных платформ, а также для сетей рабочих станций UNIX и
Windows NT. В настоящее время MPI - наиболее широко используемый и
динамично развивающийся интерфейс из своего класса.
Beowulf - кластеры на базе ОС Linux
Рекомендуем скачать другие рефераты по теме: первый снег сочинение, сочинение 6.
Категории:
Предыдущая страница реферата | 1 2 3 4 5 6 | Следующая страница реферата