Вычислительный комплекс Hewlett-Packard представляет собой единый компьютерный комплекс, построенный на базе аппаратно-программных решений, предоставленных компанией HP.

 В задачи вычислительного комплекса HP (далее — ВК HP) входят услуги по предоставлению:

1. выделенных виртуальных машин для учебно-научных и административно-хозяйственных подразделений Санкт-Петербургского государственного университета (далее СПбГУ);

2. мощностей кластера высокопроизводительных вычислений для работ в области физики, химии, биологии и др.

Структура ВК НР

 

Кластер облачных вычислений представляет из себя виртуальные хосты, системы хранения данных, сети хранения и передачи данных и программное обеспечение, позволяющие предоставлять услугу временного пользования виртуальных машин с заданными пользователем характеристиками для учебно-научных и административно-хозяйственных подразделений СПбГУ.

Кластер высокопроизводительных вычислений представляет из себя серверы, системы хранения данных, сети хранения и передачи данных и программное обеспечение, позволяющие проводить исследования в области физики, химии, биологии и других наук, требующие мощных вычислительных ресурсов.

Коммуникационное оборудование представлено коммутаторами, использующими технологии Gigabit Ethernet, 10 Gigabit Ethernet и InfiniBand QDR.

Система хранения данных служит для размещения пользовательских данных, образов виртуальных машин и прочей информации и представляет собой совокупность дисковых массивов, шлюзов и виртуальных библиотек.

На вычислительном комплексе HP развернуты:

  • - кластер VMware (blade-серверы);
  • - вычислительные кластеры;
  • - сетевое оборудование;
  • - система хранения данных;
  • - система резервного копирования.

Внешний вид вычислительного комплекса HP

Спецификация комплекса

Кластер облачных вычислений состоит из следующих основных компонентов:

  • - 4 шасси HP BladeSystem c7000 для установки блейд-серверов;
  • - 32 блейд-сервера BL460c G6;
  • - 28 блейд-серверов BL460c G7;
  • - программная среда VMWare vSphere 5 под управлением гипервизора VMWare ESXi 5, использующая вышеуказанные серверы как хосты для виртуализации;
  • - сервер управления виртуализацией VMWare VCenter Server.

Кластер высокопроизводительных вычислений состоит из двух субкластеров: SMP и гибридного.

Субкластер SMP включает:

  • - 3 сервера HP ProLiant DL980 G7.

Гибридный кластер включает:

  • - 8 шасси s6500 для установки серверов;
  • - 16 серверов HP ProLiant SL390s 2U;
  • - 8 серверов HP ProLiant SL390s 4U.

Управление кластером высокопроизводительных вычислений осуществляется с головного узла HP ProLiant DL360 G7.

Кластер облачных вычислений и кластер высокопроизводительных вычислений используют следующие общие сети передачи данных:

  • - Gigabit Ethernet;
  • - 10 Gigabit Ethernet;
  • - InfiniBand QDR 4x.

Сетевое оборудование представлено следующими устройствами:

  • - 2 коммутатора HP 6600;
  • - 2 коммутатора HP 8206;
  • - 4 пары соединительных модулей BladeSystem Virtual Connect Flex-10;
  • - 4 коммутатора Voltaire 4036;
  • - 4 встроенных коммутатора Mellanox для блейд-шасси.

Система хранения данных:

  • - дисковый массив P4500 G2;
  • - дисковый массив P4800 G2;
  • - массив-шлюз x9300;
  • - виртуальная библиотека D2D4106i.

Характеристики комплекса

Характеристики кластера облачных вычислений

Наименование

Количество

CPU

RAM

Адаптеры и модули

Примечания

1

Шасси для блейд-серверов НР BladeSystem c7000

4

-

-

Коммутационные модули Virtual Connect Flex-10 (10 Gb Ethernet) и InfiniBand 

-

2

Блейд-сервер BL460c G6

32

2 х Intel Xeon X5670 3.06 GHz

96 Gb

Сетевые интерфейсы 10 Gb Ethernet и InfiniBand

-

3

Блейд-сервер BL460c G7

28

2 х Intel Xeon X5675 3.06 GHz

96 Gb

Сетевые интерфейсы 10 Gb Ethernet и InfiniBand

-

Характеристики кластера высокопроизводительных вычислений

Субкластер SMP

Наименование

Количество

CPU

RAM

Адаптеры и модули

Примечания

1

Сервер НР ProLiant DL980 G7

2

Intel Xeon X7560 2.2 GHz

512 Gb/2 Tb

Адаптеры для доступа к сети Gb Ethernet и InfiniBand

-

2

Сервер НР ProLiant DL980 G7

1

Intel Xeon X7560 2.2 GHz

2 Tb

Адаптеры для доступа к сети Gb Ethernet и InfiniBand

-

Гибридный кластер

Наименование

Количество

CPU

RAM

Адаптеры и модули

Примечания

1

Шасси s6500

8

-

-

-

-

2

HP ProLian SL390s 2U

16

2 х Intel Xeon X5650,3 х nVidia TeslaM 2050

96 Gb

Адаптеры для доступа к сети Gb Ethernet и InfiniBand

-

3

HP ProLian SL390s 4U

8

2 х Intel Xeon X5650,8 х nVidia TeslaM 2050

96 Gb

Адаптеры для доступа к сети Gb Ethernet и InfiniBand

-

4

HP ProLian DL360 G7

1

2 х Intel Xeon X5650 12 Gb -

Головной узел кластера высокопроизводительныхвычислений
 

Характеристики сетевого оборудования

Наименование

Количество

Число портов

Технология передачи данных

Примечания

1

Коммутатор НР 6600

2

48

Gigabit Ethernet

 

2

Коммутатор НР 8206

2

20

10 Gigabit Ethernet

 

3

Межсоединительные модули BladeSystem Virtaire Conect Flex-10

4 х 2

8

10 Gigabit Ethernet

 

4

Коммутатор Voltaire 4036

4

-

InfiniBand QDR 4x

 

5

Bстроенные коммутаторы Mellanox

4

-

InfiniBand QDR 4x

 

Производительность (результаты измерений)

Производительность кластера на базе блейд-серверов.

Целью испытаний было определение двух параметров: максимального числа операций с плавающей запятой в секунду (Rmax) и процентного отношения этого числа к теоретической производительности (Rpeak), вычисленной на основе характеристик центральных процессоров, предоставленных производителем.

Получены следующие результаты:

Состав кластера

28 узлов, 56 процессоров, 336 ядер

Операций в секунду (Rmax)

3618 Гигафлопс

Отношение Rmax/Rpeak

87,8%

Технические подробности испытаний

Испытания проводили с помощью теста HPLinpack 2.0, представляющего собой систему линейных алгебраических уравнений, для решения которой применяется метод Гаусса. В ходе вычислений производится большое количество операций с плавающей запятой (floating point operations — FLOP). Количество таких операций в секунду (floating point operations per second — FLOPS, flops, флопс) является оценкой быстродействия процессоров, позволяющей прогнозировать возможности кластера для решения реальных вычислительных задач.

Были проведены следующие измерения:

      - тест HPL на одном, двух, четырёх, восьми, шестнадцати и двадцати восьми узлах.

Полученные результаты приведены в таблице ниже. Один шестиядерный процессор Intel Xeon X5675 3.06 GHz даёт производительность 73,584 гигафлопс. В каждом узле установлено по 2 центральных процессора, следовательно, пиковая теоретическая производительность одного узла равна 73,584×2=147,168 гигафлопс. Теоретическая пиковая производительность и отношение Rmax/Rpeak приведены в таблице.

Количество Узлов

Rmax

Rpeak

Rmax/Rpeak, %

1

133,3

147,168

90,58

2

265,6

294,336

90,24

4

529,3

588,672

89,91

8

1052

1177,344

89,35

16

2079

2354,688

88,29

28

3618

4120,704

87,80

Производительность гибридного кластера высокопроизводительных вычислений

Целью испытаний было определение двух параметров: максимального числа операций с плавающей запятой в секунду (Rmax) для шестнадцати узлового гибридного кластера, и процентного отношения этого числа к пиковой производительности (Rpeak), вычисленной на основе характеристик графических и центральных процессоров, предоставленных производителем.

Получены следующие результаты:

Состав кластера

24 узла, 72 графических процессоров, 48 центральных процессоров (288 ядер)

Операций в секунду (Rmax)

19590 Гигафлопс

Отношение Rmax/Rpeak

48,79%

Технические подробности испытаний

Испытания проводили с помощью теста HPLinpack 2.0, аналогично кластеру на базе блейд-серверов.

Были проведены следующие измерения:

  •       - тест HPL на одном, двух, четырёх, восьми, шестнадцати узлах с тремя графическими процессорами,
  •       - тест HPL на одном, двух, четырёх, восьми узлах с восемью графическими процессорами,
  •       - общий тест HPL на 24 узлах с задействованием трёх графических процессоров.

Полученные результаты приведены в таблице ниже. Один графический процессор Tesla M2050 даёт производительность 515 гигафлопс. Один шестиядерный процессор Intel Xeon X5650 2.66 GHz даёт производительность 63,984 гигафлопс. В каждом узле первого типа (2U) установлено по 3 графических процессора, следовательно, пиковая производительность одного узла первого типа (2U) равна 515×3+63,984×2=1672,968 гигафлопс. Аналогично, для узлов второго типа (4U): 515×8+63,984×2=44247,968 гигафлопс. Теоретическая пиковая производительность и отношение Rmax/Rpeak приведены в таблице.

Количество узлов

Rmax Rpeak Rmax/Rpeak, %

3 GPU

   

1

1017

1672,968

60,79

2

1932

3345,936

57,74

4

3647

6691,872

54,50

8

7259

13383,744

54,24

16

13060

26767,488

48,79

24

19590

40151,232

48,79

8 GPU

   

1

2152

4247,968

50,66

2

4183

8495,936

49,24

4

8357

16991,872

49,18

8

16540

33983,744

48,67

Общий тест

   

24

19590

40151,232

48,79

Сетевая инфраструктура

Локальная сеть комплекса реализована на базе двух скоростных режимов: 1-гигабитная сеть Ethernet и 10-гигабитная сеть Ethernet.

В состав 1-гигабитной сети входят коммутаторы 8206, 6600 и подключённые к ним устройства – управляющие интерфейсы оборудования (iLO, Onboard Administrator, Management Interface) и узлы кластеров высокопроизводительных вычислений. В состав 10-гигабитной сети входятмодули Virtual Connect Flex-10 и коммутаторы 8206.

Высокоскоростная сеть InfiniBand построена на базе коммутаторов Voltaire 4036 и встроенных коммутаторов Mellanox для блейд-шасси. Сеть построена по технологии InfiniBand 4x QDR. Пропускная способность – 40 Гбит/с. Применена топология «толстого дерева» (fat tree), при которой устройства подключены к периферийным коммутаторам (edge switches), а периферийные коммутаторы соединяются с парой центральных коммутаторов (core switches). Между любой парой коммутаторов «центр-периферия» подключено по 4 межкоммутаторных соединения.

 

Схема сетевой инфраструктуры ВК НР