Отчет за 2003 г.

    ЛОКАЛЬНАЯ СЕТЬ ОИЯИ

В настоящее время база данных IP-адресов содержит 4506 зарегистрированных элементов локальной сети ОИЯИ (4053 в 2002 г.). Как отмечалось в Проблемно-тематическом плане на 2003 г., одной из основных задач по разработке информационной, вычислительной и телекоммуникационной структуры в ОИЯИ считается выполнение работ по реализации первой стадии выбранного варианта опорной сети ОИЯИ на основе Gigabit Ethernet.

Ядром локальной сети ОИЯИ, основанной на технологии Gigabit Ethernet, является коммутатор Cisco Catalyst 6509 с Gigabit Interface на восемь портов. Коммутаторы Cisco Catalyst 3550 установлены в семи лабораториях и административном корпусе ОИЯИ. Все компоненты гигабитного оборудования связаны между собой новым 16-жильным одномодовым оптическим кабелем длиной 10300 метров (рис. 3). Для защиты локальной сети ОИЯИ по всему периметру, установлены два устройства межсетевой защиты Cisco PIX-525 (одно находится в активном режиме, а второе включается в работу в случае сбоя первого).

Гигабитная опорная сеть ОИЯИ

Рис. 3. Гигабитная опорная сеть ОИЯИ

Проводились работы по изучению характерных особенностей сетевого трафика. Для реконструкции динамической системы, описывающей информационный трафик в локальной сети среднего размера, применены методы нелинейного анализа и прямоточная нейронная сеть. Нейронная сеть, обученная на измерениях сетевого трафика, воспроизвела статистическое распределение информационного потока, которое хорошо описывается логнормальным законом. Анализ принципиальных компонентов измерений трафика показал, что уже несколько лидирующих компонентов формируют логнормальное распределение, в то время как остаточные компоненты играют роль случайного шума. Этот результат подкреплен совместным статистическим, вейвлет- и фурье-анализом измерений трафика. Логнормальное распределение информационного потока и мультипликативный характер временной серии подтверждает применимость схемы, разработанной А.Колмогоровым к однородной фрагментации крупинок, также и для сетевого трафика [1].

    Распределенные информационные системы,
    центральный информационно-вычислительный комплекс ОИЯИ
Центральный информационный вычислительный комплекс (ЦИВК) ОИЯИ является частью Российского информационно - вычислительного комплекса, созданного для обработки информации с Большого адронного коллайдера (LHC). Он включает в себя интерактивный кластер общего доступа, вычислительную ферму для выполнения задач моделирования и обработки данных для больших экспериментов, вычислительную ферму для задач проекта LHC, вычислительную ферму для выполнения параллельных вычислений на базе современных сетевых технологий (MYRINET, SCI и т.д.), ресурсы памяти большой емкости на дисковых RAID-массивах и ленточные роботы. Производительность ЦИВК ОИЯИ составляет 4,3 КSPI95, дисковое пространство 7,7 Tбайт, автоматизированная ленточная библиотека имеет емкость 16,8 Tбайт. Среднегодовая загрузка фермы составила 25%. В октябре 2003 г. загрузка равнялась 60,98%. Ресурсы ЦИВК ОИЯИ использовались в экспериментах E391A (KEK), KLOD, COMPASS, D0, DIRAC, CMS, ALICE для массового моделирования событий, моделирования и анализа экспериментальных данных. Для экспериментов ALICE, ATLAS и CMS проводились сеансы массового моделирования физических событий в рамках участия ОИЯИ в DC04 (Data Challenge 2004). Более 300 сотрудников ОИЯИ и других научно-исследовательских центров являются пользователями ЦИВК ОИЯИ. В табл. 2 представлена статистика использования процессорного времени на вычислительных фермах ЦИВК по подразделениям.

Таблица 2
Процессорное время, (%)  
LHC cеансы массового мод. 33,32
ЛЯП 20,77
ЛТФ 18,71
ЛФЧ 6,70
ЛНФ 5,78
ЛИТ 5,23
Прочие орган. 4,47
ЛВЭ 2,57
ЛЯР 2,44

    Вычислительный сервис и создание
    Grid-сегмента в ОИЯИ

В 2003 г. активно велись работы по использованию Grid-технологий для обработки экспериментальных данных. В настоящее время научное сообщество начинает интенсивно использовать концепцию Grid, которая предполагает создание такой инфраструктуры, которая бы смогла обеспечить глобальное интегрирование информационных и вычислительных ресурсов. ОИЯИ принимает активное участие в этом процессе. Проект LHC, который является уникальным как по масштабам получаемых данных, так и с точки зрения применяемых компьютерных технологий, позволяет провести обработку и анализ экспериментальных данных с использованием технологии Grid. Аналитический обзор в журнале "Открытые системы", подготовленный совместно с НИИЯФ МГУ и РНЦ "Курчатовский институт", посвящен анализу работ, выполненных в этой области в ОИЯИ и в российских центрах [2].

Велись работы по созданию системы глобального мониторинга ресурсов крупномасштабной виртуальной организации России, включающей сегменты локальных сетей ряда институтов (НИИЯФ МГУ, ОИЯИ, ИТЭФ, ИФВЭ, ИПМ РАН) на основе архитектуры Grid. Продолжалась адаптация и поддержка новых версий библиотеки ANAPHE (первоначально LHC++) на платформах Linux, Windows и Sun Solaris. Осуществлялась поддержка программного обеспечения для LHC-экспериментов (ATLAS, ALICE и CMS) и для экспериментов, не связанных с LHC. Проведены измерения производительности пакета Globus Toolkit 3 (GT3) в условиях высокой загрузки. Установлен AliEn-сервер для распределенной обработки данных эксперимента ALICE в России. На ЦИВК ОИЯИ установлена и протестирована система Castor.

В течение 2003 г. ОИЯИ участвовал в сеансах массового моделирования событий для эксперимента CMS. С помощью программы CMSIM v.133 получено 250000 событий. Объем сгенерированных данных составил 320 Гбайт. Для моделирования событий использовался новый инструмент - Grid ресурс брокер (Storage Resource Broker (SRB)). Программа SRB, установленная в ОИЯИ, обеспечивает прямой доступ к общим базам данных эксперимента CMS на сервере в Великобритании (Бристоль) и открывает новые возможности для хранения и обмена данных в рамках коллаборации CMS.

Сотрудники ЛИТ принимают участие в разработке средств контроля для вычислительных кластеров с большим количеством узлов (10000 и более), которые используются в инфраструктуре EU Data Grid. В рамках задачи по управлению и контролю отказоустойчивости таких структур создана система Correlation Engine. Эта система осуществляет оперативное обнаружение аварийных состояний в узлах кластеров и принятие мер для предотвращения в этой связи аварийных ситуаций. Прототип Correlation Engine установлен в ЦЕРН и ОИЯИ для учета аварийных состояний узлов кластеров [3].

В 2003 г. проведены опытные сеансы по передаче данных из Протвино ( sirius-b.ihep.su; ОС Digital UNIX Alpha Systems 4.0) на систему массовой памяти ATL-2640 в Дубне ( dtmain.jinr.ru; ОС HP-UX 11.0) для оценки пропускной способности и стабильности системы передачи данных, включая каналы связи и массовую память (OmniBack disk agent в Протвино и OmniBack tape agent в Дубне). Сеансы прошли без аварийных сбоев. Средняя скорость передачи составила 480 Кбит/с. При этом максимальная скорость передачи составила 623 Кбит/с, а минимальная - 301 Кбит/с. (Расстояние между Дубной и Протвино примерно 250 км; пропускная способность канала связи Протвино - Москва 8 Мбит/с)

Хранение данных, полученных в процессе массового моделирования событий в сеансах CMS, обеспечивалось системой Omnistorage. Около 1 Тбайта данных, смоделированных в НИИЯФ МГУ, было передано в Дубну на автоматизированную ленточную библиотеку ATL-2640.

Продолжалось сопровождение библиотеки программ ОИЯИ (JINRLIB), которое включает в себя реализацию в ОИЯИ электронного доступа к CPCLIB, CERNLIB (http://www.jinr.ru/programs/), адаптацию программ на компьютерных платформах ОИЯИ и пополнение библиотеки JINRLIB (добавлено и протестировано около 80 новых программ).

© Лаборатория Информационных Технологий, ОИЯИ, Дубна, 2004
Т.Стриж