|  A.6Архитектура существующей информационной системыВ 2009 году в ММЦ в г.Москве и РСМЦ в гг Новосибирск и Хабаровск установлены высокопроизводительные вычислительные комплекс, в 2011-2013 годах вычислительные возможности комплексов расширены.
 
 Структура комплекса состоит из следующих основных компонентов (Рисунок 1 ):
 
 
  
 Рисунок 1 Типовая структурная схема вычислительных комплексов ММЦ в г. Москве, РСМЦ в г.г. Новосибирск и Хабаровск.
 
 Вычислитель выполняет функции оперативного и научно-исследовательского счета, ресурсной поддержки научно-исследовательских разработок. Дифференциация задач выполняется по технологическим схемам каждого из центров установки. В комплект системы входит системная консоль организации доступа ко всем узлам системы для инженерного персонала.
 
 Система управления данными состоит из:
 
 
            дисковой системы хранения данных, обеспечивающей хранение данных на накопителях ЖМД и предоставляющей ресурсы для подсистем ввода-вывода Вычислителей, серверов баз данных и оперативных систем;
 
ленточной системы хранения данных, состоящей из автоматизированной ленточной библиотеки,
 
серверов системы управления данными, включая серверы архивирования и резервного копирования, иерархического хранения данных.
 
 Серверы оперативной системы и баз данных включают в себя вычислительные серверы, локальные серверы оперативного назначения, в число которых входят серверы обмена оперативной информацией, серверы информационных систем Росгидромета, файловые серверы, обеспечивающие файловый и транзакционный обмен данными для клиентов ЛВС.
 
 Серверы общего назначения обеспечивают функционирование основных сетевых сервисов, таких как DHCP, NTP, локальных DNS и почтового сервиса.
 
 Абонентские рабочие места оперативного и научно-исследовательского назначения включают персональные компьютеры и станции визуализации оперативного и неоперативного персонала.
 
 Локальная вычислительная сеть объединяет все компоненты информационной системы. Связь с существующей ЛВС осуществляется посредством двух интерфейсов Ethernet 10/100/1000 Base-T. Для обеспечения функционирования осуществляется мониторинг и управление сетевым оборудованием.
 
 Вычислители выполняют функции оперативного и научно-исследовательского счета, ресурсной поддержки научно-исследовательских разработок. Дифференциация задач выполняется по технологическим схемам центра установки. В комплект системы входит системная консоль организации доступа ко всем узлам системы для инженерного персонала.
 
 Таблица 1 содержит основные характеристики установленных Вычислительных комплексов.
 
 Таблица 1 Конфигурация информационной системы
 
 
            
            
            
            
            
            
            
            
              
                | Центр Росгидромета
 
 | Пиковая произво-
 
 дитель-ность TFlops (1012)
 
 | Тип вычисли-теля
 
 | Кол-во CPU/
 
 CPU в узле
 
 | ОЗУ
 
 Тбайт
 
 (1012)/GB на ядро
 
 | Производитель
 
 (фирма/страна)
 
 | Дисковая подсистема
 
 Тбайт(1012)
 
 |  
                | ММЦ Москва
 
 | 11
 
 | SGI Altix 4700
 
 | 1664 / 128
 
 | 6.6/4
 
 
 | SGI(США)
 
 | 180TB=
 
 60TB
 
 SGI IS4000
 
 +
 
 120TB SGI IS10000
 
 |  
                | 16
 
 | SGI Altix ICE8200
 
 | 1408/8
 
 | 2.8/2
 
 | SGI(США)
 
 |  
                | 35
 
 | РСК ”Торнадо”
 
 | 1152/12
 
 | 4.608/4
 
 | РСК (Россия)
 
 | 300TB
 
 IBM Storwize V7000, IBM System Storage DCS3700
 
 |  
                | 
 
 
 | 14
 
 | SGI ICE-X
 
 | 720/20
 
 | 2.304/3.2
 
 | SGI(США)
 
 |  
                | 
 
 
 | 2
 
 | SGI UV 2000
 
 | 96/96
 
 | 1.024/10.6
 
 | SGI(США)
 
 |  
                | РСМЦ Новосибирск
 
 | 0.7
 
 | G-Scale S4700
 
 | 104 / 104
 
 | 0.2
 
 | Крафтвэй
 
 (Россия)
 
 | 12.3TB SGI IS4000
 
 |  
                | РСМЦ Хабаровск
 
 | 0.7
 
 | G-Scale S4700
 
 | 104 / 104
 
 | 0.2
 
 | Крафтвэй
 
 (Россия)
 
 | 12.3TB SGI IS4000
 
 |  Кластер (Вычислитель #C1) SGI Altix4700 пиковой производительностью 11 TFlops построен на 832 2-х ядерных процессорах Intel Itanium 9140М с оперативной памятью 6.6 TB (1664 процессорных ядер, 4 GB на ядро). Вычислитель представляет собой систему с общей памятью, способен масштабироваться до 1024 ядер в рамках единого образа операционной системы. Архитектура SGI NUMAflex обеспечивает наилучшие (по проведенным тестированиям) значения полосы пропускания и латентности. Шина взаимодействия SGI NUMALink обеспечивает высокоскоростное взаимодействие между процессорами системы. На текущий момент Вычислитель логически делится на партиции/узлы (13 узлов): 1 партиция = 1 вычислительная стойка. В каждой партиции 32 виртуальных вычислительных узла (нод): 4 ядра + 16ГБ оперативной памяти. Две виртуальных ноды зарезервированы для системных процессов (8 ядер + 32ГБ памяти). Каждая аппаратная партиция имеет системные жесткие диски SAS с полезным объемом 300 GB с зеркалированием и высокопроизводительный доступ к Дисковой системе хранения данных через параллельную файловую систему SGI CXFS. Кластер функционирует под управлением операционной системы SLES 11SP1 (ia64).
 
 Кластер (Вычислитель #C2) SGI Altix ICE8200 пиковой производительностью 16 TFlops построен на 352 4-х ядерных процессорах Intel Quad Core Xeon e5440 с оперативной памятью 2.8TB (1408 процессорных ядер, 2 GB на ядро). Вычислитель представляет собой широко распространенный тип блейд-систем, имеет 64-разрядную архитектуру EM64T/AMD64. Вычислитель состоит из 3-х вычислительных стоек, каждая из которых представляет собой: 4 IRU (Individual Rack Unit — блейд шасси), 15 вычислительных блейдов (лезвий), 8 ядер и 16GB оперативной памяти в каждом блейде. В качестве шины взаимодействия используется технология Infiniband DDR. Кластер использует бездисковый принцип работы - образ операционной системы разворачивается в оперативной памяти. Общая файловая система строится на базе технологии NFS over Infiniband. Кластер функционирует под управлением операционной системы SLES 10SP2 (x86_64).
 
 Кластер (Вычислитель #C3) РСК “Торнадо” пиковой производительностью 35 TFlops построен на 192 8-и ядерных процессорах Intel E5-2690 с оперативной памятью 6,1 TB (1536 процессорных ядра, 4 GB на ядро). Вычислитель имеет 64-разрядную архитектуру EM64T/AMD64. В качестве шины взаимодействия используется технология Infiniband QDR. Общая файловая система строится на базе технологии NFS для подключений к файловой системе кластеров SGI и параллельной файловой системе GPFS для непосредственного подключения узлов кластера к дисковым массивам. Кластер функционирует под управлением операционной системы SLES 11SP2 (x86_64).
 
 Кластер (Вычислитель #C4) SGI ICE-X пиковой производительностью 14 TFlops построен на 72 10-и ядерных процессорах Intel E5-2670v2 с оперативной памятью 2,3 TB (720 процессорных ядер, 3,2 GB на ядро). Вычислитель имеет 64-разрядную архитектуру EM64T/AMD64. В качестве шины взаимодействия используется технология Infiniband FDR, топология Enhanced Hypercube IB Interconnect Topology. Общая файловая система строится на базе технологии NFS для подключений к файловой системе кластеров SGI и параллельной файловой системе GPFS для непосредственного подключения узлов кластера к дисковым массивам. Кластер функционирует под управлением операционной системы SLES 11SP3 (x86_64).
 
 Вычислитель #C5 SGI UV2000 пиковой производительностью 2 TFlops представляет собой систему с глобальной общей оперативной памятью, построен на 16 шести ядерных процессорах Intel E5-4617 с оперативной памятью 1 TB (96 процессорных ядер, 10 GB на ядро). Вычислитель имеет 64-разрядную архитектуру EM64T/AMD64. Общая файловая система строится на базе технологии NFS для подключений к файловой системе кластеров SGI и параллельной файловой системе GPFS для непосредственного подключения Вычислителя к дисковым массивам. Вычислитель функционирует под управлением операционной системы SLES 11SP3 (x86_64).
 
 Дисковая подсистема общим объемом 180 TB имеет иерархическую структуру: 60TB SGI InfiniteStorage 4000 system (Дисковая система хранения данных #С1) и 120TB SGI InfiniteStorage 10000 (Дисковая система хранения данных #C2). Решение по Сети хранения данных (SAN) базируется на двух коммутаторах Brocade SilkWorm® 48000 (48K) и файловой системе SGI CXFS, которая является параллельной файловой системой, направляющей поток данных через SAN. CXFS обеспечивает соединение всех необходимых технологических серверов и узлов Вычислителя #C1 с Дисковой системой #С1 хранения данных. Файловая система работает совместно с SGI DMF – системой иерархического управления хранением SGI Hierarchical Storage Management, которая обеспечивает миграцию данных между дисковыми подсистемами. Вычислитель #C2 подключается к параллельной файловой системе непосредственным отказоустойчивым подключением к серверам метаданных (SGI Altix 450).
 
 Дисковая система хранения данных #C3 строится на базе дисковых массивов 14 TB IBM Storwize V7000 , 300 TB IBM System Storage DCS3700. Решение по Сети хранения данных реализовано путем установки двух FC коммутаторов Express IBM System Storage SAN24B-4 с подключением к коммутаторам SW 48K и файловой системе GPFS, которая является параллельной файловой системой. GPFS обеспечивает соединение всех необходимых технологических серверов и узлов Вычислителя #C3 с Дисковой системой хранения данных #C3. Миграция данных между дисковыми подсистемами осуществляется также средствами GPFS.
 
 Для обеспечения функционирования и управления компонентами вычислительной инфраструктуры используются Служба каталогов Microsoft Windows и ассоциированные с ней общесистемные службы. В число этих служб входят инфраструктура общего каталога на базе Microsoft Active Directory, базовые сетевые сервисы DHCP, DNS, NTP. В качестве почтовой серверной службы используется Microsoft Exchange, в качестве унифицированных коммуникаций используется Microsoft Lync.
 
 ЛВС построена на базе:
 
 
            Уровень ядра – коммутаторы Cisco 6509
 
Уровень распределения – коммутаторы Cisco 4948 с подключением к коммутаторам уровня ядра на скорости 10 Gbps по оптоволоконному каналу связи
 
Уровень резервирования серверной фабрики – коммутаторы Cisco 4948 с подключением к коммутаторам уровня ядра на скорости 1 Gbps по оптоволоконному каналу связи или UTP-соединению.
 
Уровень доступа – коммутаторы Cisco 2960 и Cisco 3650 с подключением к коммутаторам ядра и/или уровня распределения на скорости 1 Gbps по оптоволоконному каналу связи или UTP-соединению.
 
 Система безопасности сетевой инфраструктуры построена на базе межсетевых экранов Cisco ASA серии 5500, серверов доступа Cisco ACS.
 
 Система управления ЛВС реализована с использованием интегрированного решения Cisco LMS (элемент-менеджер активного оборудования) и HP OpenView NNMi (энтерпрайс-менеджер оборудования). Анализ сетевого трафика осуществляется с использованием Adventnet NetFlow Analyzer Professional. Мониторинг критически важных уязвимостей информационно-сетевых ресурсов обеспечивает сканер PositiveTechnologies XSpider Professional Edition.
 
 Для управления рабочими местами на базе операционных систем Windows Server и SLES используется Microsoft System Center.
 
 Для организации счета на вычислительных комплексах используется централизованная система пакетной обработки заданий Altair PBS Pro.
 
 На базе указанных выше вычислительных систем производится оперативный и научно-исследовательский счет.
 
 В специализированных региональных центрах в г.г. Новосибирск и Хабаровск пиковая производительность вычислителя компании G-Scale S4700 ЗАО «Крафтвэй Корпорэйшн ПЛС» на базе 52 процессоров Intel Itanium 9140М составляет 0,7 TFlops. Емкость дискового хранилища для центров в г.г. Новосибирск и Хабаровск – 12.3 TB на базе оборудования SGI InfiniteStorage 4000.
 
 В настоящее время ресурсы комплексов полностью исчерпаны. Оперативные задачи занимают весьма существенную долю вычислительных ресурсов комплексов, что приводит к серьезному ограничению на использование ресурсов для научно-исследовательских работ по развитию и испытанию перспективных моделей и систем усвоения данных наблюдений.
 
 |