Студопедия

КАТЕГОРИИ:


Архитектура-(3434)Астрономия-(809)Биология-(7483)Биотехнологии-(1457)Военное дело-(14632)Высокие технологии-(1363)География-(913)Геология-(1438)Государство-(451)Демография-(1065)Дом-(47672)Журналистика и СМИ-(912)Изобретательство-(14524)Иностранные языки-(4268)Информатика-(17799)Искусство-(1338)История-(13644)Компьютеры-(11121)Косметика-(55)Кулинария-(373)Культура-(8427)Лингвистика-(374)Литература-(1642)Маркетинг-(23702)Математика-(16968)Машиностроение-(1700)Медицина-(12668)Менеджмент-(24684)Механика-(15423)Науковедение-(506)Образование-(11852)Охрана труда-(3308)Педагогика-(5571)Полиграфия-(1312)Политика-(7869)Право-(5454)Приборостроение-(1369)Программирование-(2801)Производство-(97182)Промышленность-(8706)Психология-(18388)Религия-(3217)Связь-(10668)Сельское хозяйство-(299)Социология-(6455)Спорт-(42831)Строительство-(4793)Торговля-(5050)Транспорт-(2929)Туризм-(1568)Физика-(3942)Философия-(17015)Финансы-(26596)Химия-(22929)Экология-(12095)Экономика-(9961)Электроника-(8441)Электротехника-(4623)Энергетика-(12629)Юриспруденция-(1492)Ядерная техника-(1748)

Кластеры




МВС-100K

Суперкомпьютеры

Межведомственный Суперкомпьютерный Центр РАН, Москва, РФ.

 

• Пиковая производительность: 95.04 Tflops

• Реальная производительность: 71.28 Tflops

• Cluster Platform 3000 BL460c/BL2x220, Xeon 54xx 3 Ghz

• Интерконнект: Infinband DDR 4x

• Операционная система: Linux

 

СКИФ МГУ (НИВЦ МГУ, 2008)

Общее количество двухпроцессорных узлов 625
(1250 четырехядерных процессоров Intel Xeon E5472 3.0 ГГц),

 

• Общий объем оперативной памяти – 5,5 Тбайт,

• Объем дисковой памяти узлов – 15 Тбайт,

• Операционная система Linux,

• Пиковая производительность 60 TFlops, быстродействие на тесте LINPACK 47 TFlops.

 

Кластер – группа компьютеров, объединенных в локальную вычислительную сеть (ЛВС) и способных работать в качестве единого вычислительного ресурса.

Предполагает более высокую надежность и эффективность, нежели ЛВС, и существенно более низкую стоимость в сравнении с другими типами параллельных вычислительных систем (за счет использования типовых аппаратных и программных решений).

¨ Отказоустойчивые кластеры (High-availability clusters, HA).Создаются для обеспечения высокой доступности сервиса, предоставляемого кластером. Избыточное число узлов, входящих в кластер, гарантирует предоставление сервиса в случае отказа одного или нескольких серверов.

 

¨ Кластеры с балансировкой нагрузки (Load balancing clusters). Принцип их действия строится на распределении запросов через один или несколько входных узлов, которые перенаправляют их на обработку в остальные, вычислительные узлы. Первоначальная цель такого кластера — производительность, однако, в них часто используются также и методы, повышающие надёжность.

 

¨ Вычислительные кластеры (Сomputing clusters) Кластеры используются в вычислительных целях, в частности в научных исследованиях. Для вычислительных кластеров существенными показателями являются высокая производительность процессора на операциях над числами с плавающей точкой и низкая латентность объединяющей сети, и менее существенными — скорость операций ввода-вывода, которая в большей степени важна для баз данных и web-сервисов.

 

Вычислительные кластеры позволяют уменьшить время расчетов, по сравнению с одиночным компьютером, разбивая задание на параллельно выполняющиеся ветки, которые обмениваются данными по связывающей сети.

¨ Grid-системы. Такие системы не принято считать кластерами, но их принципы в значительной степени сходны с кластерной технологией. Главное отличие — низкая доступность каждого узла, то есть невозможность гарантировать его работу в заданный момент времени (узлы подключаются и отключаются в процессе работы), поэтому задача должна быть разбита на ряд независимых друг от друга процессов. Такая система, в отличие от кластеров, не похожа на единый компьютер, а служит упрощённым средством распределения вычислений. Нестабильность конфигурации, в таком случае, компенсируется большим числом узлов.

 

Первым в мире кластером, по-видимому, является кластер Beowulf, созданный под руководством Томаса Стерлинга и Дона Бекера в научно-космическом центре NASA – Goddard Space Flight Center – летом 1994 года. Названный в честь героя скандинавской саги, обладавшего, по преданию, силой тридцати человек, кластер состоял из 16 компьютеров на базе процессоров 486DX4 с тактовой частотой 100 MHz. Каждый узел имел 16 Mb оперативной памяти.

 

 

 

Связь узлов обеспечивалась тремя параллельно работавшими 10 Mbit/s сетевыми адаптерами. Кластер функционировал под управлением операционной системы Linux и поддерживал параллельные программы на основе MPI. Процессоры узлов кластера были слишком быстрыми по сравнению с пропускной способностью обычной сети Ethernet, поэтому для балансировки системы Дон Бекер переписал драйверы Ethernet под Linux для создания дублированных каналов и распределения сетевого трафика.

Идея "собери суперкомпьютер своими руками" быстро пришлась по вкусу, в первую очередь академическому сообществу. Использование типовых массово выпускающихся компонентов, как аппаратных, так и программных, вело к значительному уменьшению стоимости разработки и внедрения системы.

Вместе с тем производительность получающегося вычислительного комплекса была вполне достаточной для решения существенного количества задач, требовавших большого объема вычислений. Системы класса "кластер Beowulf" стали появляться по всему миру.

Кластеры:

¨ Beowulf

В настоящее время под кластером типа “ Beowulf ” понимается вычислительная система, состоящая из одного серверного узла и одного или более клиентских узлов, соединенных при помощи сети Ethernet или некоторой другой сети передачи данных. Это система, построенная из готовых серийно выпускающихся промышленных компонент, на которых может работать ОС Linux/Windows, стандартных адаптеров Ethernet и коммутаторов.

¨ Avalon

В 1998 в Лос-Аламосской национальной лаборатории (США) под руководством астрофизика Майкла Уоррена была создана система Avalon со следующими характеристиками: 68 процессоров (позднее расширен до 140) Alpha 21164A с тактовой частотой 533 MHz; 256 Mb RAM, 3 Gb HDD, Fast Ethernet card на каждом узле; операционная система Linux; пиковая производительность в 149 GFlops, производительность на тесте LINPACK 48.6 GFlops.

¨ AC3 Velocity Cluster

2000, Корнельский университет (США), результат совместной работы университета и Advanced Cluster Computing Consortium, образованного компаниями Dell, Intel, Microsoft, Giganet:

ú 64 четырехпроцессорных сервера Dell PowerEdge 6350 на базе Intel Pentium III Xeon 500 MHz, 4 GB RAM, 54 GB HDD, 100 Mbit Ethernet card,

ú 1 восьмипроцессорный сервер Dell PowerEdge 6350 на базе Intel Pentium III Xeon 550 MHz, 8 GB RAM, 36 GB HDD, 100 Mbit Ethernet card,

ú пиковая производительность AC3 Velocity 122 GFlops, производительность на тесте LINPACK 47 GFlops.

 

¨ NCSA NT Supercluster

2000, Национальный центр суперкомпьютерных технологий (National Center for Supercomputing Applications):

ú 38 двухпроцессорных систем Hewlett-Packard Kayak XU PC workstation на базе Intel Pentium III Xeon 550 MHz, 1 Gb RAM, 7.5 Gb HDD, 100 Mbit Ethernet card, операционная система ОС Microsoft Windows, пиковая производительностью в 140 GFlops и производительность на тесте LINPACK 62 GFlops.

 

¨ Thunder

2004, Ливерморская Национальная Лаборатория (США):

ú 1024 сервера, в каждом по 4 процессора Intel Itanium 1.4 GHz,8 Gb оперативной памяти на сервер,общая емкость дисковой системы 150 Tb, операционная система CHAOS 2.0,

ú пиковая производительность 22938 GFlops и максимально показанная на тесте LINPACK 19940 GFlops (5-ая позиция списка Top500).

 

¨ Вычислительный кластер ННГУ

2007, Модернизация в рамках Инновационной образовательной программы ННГУ:

ú 64 вычислительных сервера, каждый из которых имеет 2 двухядерных процессора Intel Core Duo 2,66 GHz, 4 GB RAM, 100 GB HDD, 1 Gbit Ethernet card,

ú пиковая производительность ~3 Tflops

ú операционная система Microsoft Windows.

 

 

 

¨ Кластер «МИЭТ 2008»

Состоит из 40 узлов, 26 из которых установлены в обычном компьютерном классе и имеют следующую конфигурацию:

• Процессор: 2хIntel XEON E5335 (2.0 GHz, quad-core)

• ОЗУ: 4x1Gb FBDIMM 5300

• HDD: SATA 250Gb

• Сеть: 2x Intel PRO1000/EB Gigabit Ethernet

• OS MS Windows HPC Server RC 1

В основе кластера лежит архитектура CoPC (Cluster of PCs), что позволяет использовать его как для обучения студентов, так и для проведения вычислений в свободное от занятий время.

 




Поделиться с друзьями:


Дата добавления: 2014-01-07; Просмотров: 936; Нарушение авторских прав?; Мы поможем в написании вашей работы!


Нам важно ваше мнение! Был ли полезен опубликованный материал? Да | Нет



studopedia.su - Студопедия (2013 - 2024) год. Все материалы представленные на сайте исключительно с целью ознакомления читателями и не преследуют коммерческих целей или нарушение авторских прав! Последнее добавление




Генерация страницы за: 0.009 сек.