Развитие вычислительной техники в ЛВТА/ЛИТ ОИЯИ

1958-1969

1958г.Первая ЭВМ в ОИЯИ. Введена в эксплуатацию вычислительная машина “Урал-1” производительностью 100 операций/с и памятью на магнитном барабане.
1961г.Ввод в эксплуатацию ЭВМ М-20 (20 тыс. операций/с) и “Киев” (5 тыс. операций/с).
1962г.Первый шаг на пути построения многомашинного комплекса для обработки экспериментальной информации в физике элементарных частиц — перфорированная кинопленка с измерительных полуавтоматов поступает на “Киев” и обрабатывается. Спектрометрическая информация из измерительного центра ЛНФ по кабелю длиной около 1 км передается для обработки на центральные ЭВМ.
1965г.Создана двухмашинная система сбора и обработки информации на базе “Минск-2” и М-20.
1967г.Введена в эксплуатацию вычислительная машина БЭСМ-4.
1968г.Появление БЭСМ-6 в ОИЯИ и операционной системы “Дубна” . Создание мониторной системы «Дубна», основой для которой послужил транслятор с языка Фортран, подготовленный объединенными усилиями интернационального коллектива программистов России, Германии, Венгрии и Кореи во главе с И.Н. Силиным и В.П. Шириковым. Ее неотъемлемой частью стала обширная библиотека программ общего назначения, содержавшая более 1500 модулей. Работами по созданию библиотеки программ руководила Р.Н.Федорова. Оснащение вычислительного центра машинами М-6000, Минск-2, БЭСМ-4, ТРА, СDС-1604А.

1970-1979

1971г.Под руководством И.Н. Силина в ЛВТА был реализован эффективный «Дубненский Диспетчер ДД-71». Все это послужило основой для создания и развития технических и программных средств связи БЭСМ-6 с разнотипными машинами измерительных центров лабораторий ОИЯИ. Введен в опытную эксплуатацию сканирующий автомат HPD - установка для скоростной автоматической обработки снимков с трековых камер на базе механического сканирующего устройства типа "бегущий луч" для измерений снимков dp - событий с 1-метровой жидко-водородной пузырьковой камеры. Автоматизация обработки камерных снимков в 60-е годы сыграла большую роль в изучении взаимодействий ускоренных частиц с веществом с помощью пузырьковых и других оптических трековых камер. Работы по автоматизации обработки камерных снимков в ЛВТА проводились под руководством Мороза В.И.
1972г.ЦВК пополнился ЭВМ СDС-6200 (в дальнейшем модернизированной до двухпроцессорной СDС-6500, оснащенной в 1976 г. удаленными терминалами). Производительность комплекса выросла до 3 млн. операций/с.
1978г.На АЭЛТ-2/160 приступили к массовой обработке информации.
1979г.Создание системы терминального доступа к БЭСМ-6 и СDС на базе языка Интерком. Техническая основа связи реализуется на малой ЭВМ ЕС-1010, создание многомашинного комплекса ОИЯИ на базе БЭСМ-6 и каналов быстрой связи с ИВЦ лабораторий

1980-1979

1980г. Начало массовых измерений снимков спектрометра РИСК сканирующей системой Спиральный измеритель на линии с РDР-8.
1981г.Внедрение ЭВМ единой серии – ЕС-1060, ЕС-1061. Подключение терминальных устройств ко всем базовым ЭВМ ОИЯИ (Интерком и подсистема ТЕРМ).
1985г.Сдана в эксплуатацию первая общеинститутская терминальная сеть JINET (Joint Institute Network). Программное обеспечение сетевого оборудования для локальной вычислительной сети ОИЯИ было полностью разработано в ЛВТА под руководством профессора В.П. Ширикова.
1986г.Массовое приобретение персональных ЭВМ “Правец-2”, программно совместимых с IBM PС/ХТ; включение ПЭВМ в сеть JINET ОИЯИ.
1987г.Началась организация параллельной JINET и связанной с ней скоростной сети ETHERNET (до 10 мбайт/с). Сеть JINET ОИЯИ стала абонентом международной компьютерной сети.
1989г.Ввод в эксплуатацию кластера машин VAX-8350 и первой очереди сети ETHERNET; сопряжение сетей JINET и ETHERNET. Ввод в эксплуатацию ЭВМ ЕС-1037, ЕС-1066, организация многомашинного комплекса ЕС ЭВМ на базе общей дисковой памяти.

1990-1999

1991г. Первые серверы и рабочие станции семейства SUN в ОИЯИ; развитие кластеров рабочих станций.
1992г.Суперминикомпьютеры семейства CONVEX (С-120, С-220).
1993г. Начаты работы по организация наземного и двух спутниковых каналов связи по протоколу ТСР/IP локальной сети ОИЯИ с глобальными сетями, внедрение первых WWW серверов. К сети подключено 1200 компьютеров.
1996г.Модернизация наземного цифрового канала связи ОИЯИ–Москва до пропускной способности 128 Кбит/с. Создание модемного пула ОИЯИ. Замена центральных устройств ЕС-1066 на двухпроцессорную IBМ4381. Ввод в эксплуатацию базового сервера DEC ALPHA 2100 для межинститутского информационного центра ОИЯИ по проекту БАФИЗ с открытым сетевым доступом по WWW.
1997г.Создание узла связи в рамках российской базовой сети RBNET, реализация скоростного оптического канала связи ОИЯИ–Москва c пропускной способностью 2 Мбит/с. Запуск многопроцессорной векторной системы С3840. Создание специализированного распределенного SUN-кластера для эксперимента CMS в ОИЯИ.
1998г.Внедрение технологии АТМ в рамках локальной компьютерной сети ОИЯИ. Создание центра высокопроизводительных вычислений ОИЯИ на базе массивно-параллельной системы HP Exemplar SPP-2000, векторно-параллельной вычислительной системы С3840 и системы массовой памяти ATL2640 на DLT лентах емкостью 10,56 Тбайт и системы массовой памяти емкостью 10 Тбайт. Создание экспериментальной вычислительной РС-фермы для экспериментов СМS и ALICE.
1999г.Завершено создание опорной сети ОИЯИ на базе ATM-технологии.
В 2000 году состоялась реорганизация Лаборатории вычислительной техники и автоматизации в Лабораторию информационных технологий.

2000-2004

2000г.Создание РС-фермы общего доступа в составе центра высокопроизводительных вычислений ОИЯИ. Введение в строй 32-процессорной системы APE-100 для расчетов на решетках. Общее число пользователей компьютерной сети ОИЯИ на конец года составило 3105.
2001г.Расширение канала компьютерной связи ОИЯИ до 30 Мбит/с. Переход на технологию Fast Ethernet (100 Мбит/с) в опорной сети ОИЯИ. Создание тестового Grid сегмента в ОИЯИ. Расширение РС-фермы до производительности ~ 2000 SPECint95 (производительность в 1 SPЕCint95 приблизительно соответствует 40 млн. операций в секунду).
2002г.Создание в составе центрального информационно-вычислительного комплекса ОИЯИ (ЦИВК ОИЯИ) нового распределенного комплекса из 4-х взаимосвязанных компонент: интерактивного кластера общего доступа, вычислительной фермы общего назначения, вычислительной фермы для экспериментов на LHC и вычислительного кластера для параллельных вычислений. В состав ЦИВК вошли 80 процессоров с общей производительностью 80 Gflops, веб-сервера, сервера баз данных и файловые сервера с дисковыми RAID-массивами. Суммарная емкость дисковых массивов составляет 6 Тбайт.
2003г.Расширение канала компьютерной связи ОИЯИ до 45 Мбит/с. Переход на технологию Gigabit Ethernet (1000 Мбит/с) в опорной сети ОИЯИ. Создание LCG-инфраструктуры. Общее число пользователей компьютерной сети ОИЯИ составило на конец года 4506 человек.

2005-2009

2005г. Расширение канала компьютерной связи ОИЯИ до 1000 Мбит/с. Доведение суммарной емкости дисковых массивов до 50 Тбайт. Производительность ЦИВК составила ~ 100 kSI2K. Общее число пользователей компьютерной сети ОИЯИ на конец года – 5335 человек.
2006г. В состав ЦИВК входят 160 процессоров с общей производительностью 1400 kSI2K.
2007г. Увеличение производительности ЦИВК до 670 kSI2K. Суммарная емкость дисковых массивов составляет 100 Тбайт.
2008г. Увеличение производительности ЦИВК до 1400 kSI2K.
2009г. Создание высокоскоростного канала связи ОИЯИ-Москва на технологии DWDM с пропускной способностью 20 Гбит/сек Увеличение вычислительного ресурса ЦИВК до 960 ядер общей производительностью 2400 kSI2K. Суммарная емкость дисковых массивов составила 500 Тбайт.

2010-2014

2010г. Реализован первый этап перехода в опорной сети ОИЯИ на 10 Гбит/с.
2011г. Завершены работы по переходу опорной сети ОИЯИ на 10 Гбит/с. Введена в эксплуатацию новая система климатического контроля ЦИВК.
2012г. Начались работы по созданию распределенного центра уровня Tier-1 для поддержки эксперимента CMS.
2013г. Создан прототип центра обработки данных для эксперимента CMS уровня Tier-1. Реализовано создание "облачных" автономных грид-инфраструктур.
2014г. Сервис облачной инфраструктуры ОИЯИ (IAAS) введен в эксплуатацию. Ввведен в эксплуатацию вычислительный кластер с гетерогенной архитектурой HybriLIT. Реализована новая версия системы мониторинга вычислительного комплекса.

2015-2019

2015г.Полномасштабный центр уровня Tier-1 для эксперимента LHC CMS становится базовой установкой ОИЯИ.
2016г.Центр уровня Tier-2 в ОИЯИ поддерживает целый ряд виртуальных организаций, в частности: ALICE, ATLAS, BES, BIOMED, COMPASS, CMS, HONE, FUSION, LHCB, MPD, NOνA, STAR. В состав гетерогонного вычислительного кластера HybriLIT введен новый компонент - система виртуальных рабочих столов для поддержки работы пользователей с пакетами прикладных программ.
2017г.Локальная вычислительная сеть ОИЯИ переведена на DHCP (Dynamic Host Configuration Protocol). Начата реализация проекта развития Многофункционального информационно-вычислительного комплекса (МИВК). Создание специализированной для высокопроизводительных вычислений (HPC) инженерной инфраструктуры, которая базируется на технологии контактного жидкостного охлаждения и предназначенная для развития гетерогенного кластера HybriLIT с целью многократного увеличения вычислительной мощности.
2018г.27 марта состоялась презентация нового суперкомпьютера имени Н.Н. Говоруна, который является развитием гетерогенной платформы HybriLIT. Теоретическая пиковая производительность нового мощного вычислительного комплекса ОИЯИ оценивается в 1 Пфлопс в одинарной точности или около 500 Тфлопс в двойной точности.
2019г.Модернизация суперкомпьютера имени Н.Н. Говоруна, общая пиковая производительность суперкомпьютера достигла 860 ТФлопс для операций двойной точности и 1,7 ПФлопс для операций одинарной точности, что позволило CPU-компоненту суперкомпьютера "Говорун" занять 10-е место в ТОП-50 самых мощных суперкомпьютеров в России и СНГ.
Увеличена пропускная способность телекоммуникационного канала Москва-ОИЯИ до 3 х 100 Гбит/с и локальной вычислительной сети института до 2 х 100 Гбит/с
Построена распределенная вычислительная кластерная сеть между площадками ЛЯП и ЛФВЭ емкостью 400 Гбит/с с двойным резервированием.
Система обработки данных Tier-1 для CMS была увеличена до 10 688 ядер(151,97 kHS06), ресурсы центра Tier-2 составили 4128 ядер(55,489 kHS06). Tier-2 ОИЯИ стал лучшим в российском консорциуме RDIG .
Общая полезная емкость дисковых серверов достигла 2789 ТБ для ATLAS, CMS и ALICE и 140 ТБ для других виртуальных организаций.

2020-2023

2020г.Система обработки данных Tier-1 увеличена до 13 376 ядер(203,569 kHS06), в результатечего Tier-1 занял второе место среди других центров Tier-1 для эксперимента СМS в мире.
Вычислительные ресурсы центра Tier-2 расширены до 7060 ядер( 100 kHS06).
В апреле завершилась работа по вводу в строй новой ленточной библиотеки IBM TS4500 общим объемом 40 ПБ.
Ресурсы облачной инфраструктуры были расширены за счет вклада эксперимента NOvA (480 ядер ЦПУ, 2,88 ТБ ОЗУ, 1,728 ПБ дискового пространства для хранилища на базе ceph) и ввода в эксплуатацию 2880 ядер ЦПУ с 46,08 ТБ ОЗУ, приобретенных для эксперимента JUNO.
2021г.По производительности Tier-1 занял первое место в мире среди других центров Tier-1 для эксперимента СМS. Ресурсный центр Tier-1 стал использоваться для выполнения задач моделирования эксперимента MPD проекта NICA.
Вычислительные ресурсы центра Tier-2 были расширены до 9272 ядер(149 938,7 HEP-SPEC06 часов).
Наш суперкомпьютерный кластер — один из лидируюших в мировом рейтинге топ-500 систем. Полигон DAOS (распределенное асинхронное хранилище объектов) суперкомпьютера “Говорун” занимает 1-е место среди российских суперкомпьютеров в текущем списке IO500.
На суперкомпьютере «Говорун» проведена серия вычислительных экспериментов с использованием целого ряда квантовых симуляторов, таких как QuEST, Qiskit, CuQuantum, и генератора квантовых схем Circ, способных работать на различных вычислительных архитектурах.
2022г.Производительность суперкомпьютера «Говорун» выросла на 23,5 % и достигла уровня 1,1 Пфлопс.
В рамках развития системы мониторинга ресурсами грид сайтов Tier-1 и Tier-2 была создана новая система аккаунтинга, которая позволила значительно расширить функционал оригинальной системы, а также сократить время получения статистических данных за счет создания автоматической обработки данных системой визуализации.
2023г.С применением грид-технологий на базе DIRAC Interware удалось объединить выделенные не только вычислительные ресурсы всех компонентов МИВК, но и кластеры организаций стран-участниц.
Для удовлетворения увеличивающихся потребностей нейтринных экспериментов по хранению экспериментальных данных, объем облачного хранилища нейтринной платформы увеличен с 1,5 до 3,1 ПБ .