Научные работы молодых ученых 2019

Программно-консультативный комитет по физике конденсированных сред
50-я сессия, 17–18 июня 2019 года

Система управления данными программы Комиссии ООН по воздуху Европы ICP VEGETATION

А. Ужинский1, Г. Ососков1, M. Фронтасьева2
1Лаборатория информационных технологий, ОИЯИ, Дубна, Россия
2Лаборатория нейтронной физики им. И.М. Франка, ОИЯИ, Дубна, Россия

Задачей проекта Комиссии ООН по воздуху Европы ICP Vegetation является определение наиболее загрязненных областей, создание региональных карт и дальнейшее развитие понимания долгосрочных трансграничных загрязнений. Система управления данными (DMS) программы ICP Vegetation состоит из набора взаимосвязанных сервисов и инструментов, развернутых в облачной инфраструктуре ОИЯИ. DMS призвана предоставить участникам программы современные и удобные механизмы сбора, хранения, анализа и обработки данных биологического мониторинга. Будут представлены основные сведения о DMS и ее возможностях.

Многофункциональная платформа для определения болезней растений

А. Ужинский1, П. Гончаров2, Г. Ососков1, A. Нечаевский1
1Лаборатория информационных технологий, ОИЯИ, Дубна, Россия
2Гомельский технический университет им. П.О. Сухого, Гомель, Беларусь

Растущее число мобильных устройств и успехи в области глубоких нейронных сетей открывают новые возможности в определении болезней растений. Целью нашего исследования является разработка многофункциональной платформы, использующей современный технологии в области организации информационных систем и создания глубоких нейронных сетей для предоставления нового уровня сервиса работникам сельского хозяйства. В качестве конечного продукта мы хотим создать мобильное приложение, которое бы позволило пользователям отправлять фотографии и текстовые описания проблемных растений и получать прогноз по заболеваниям и рекомендации по лечению. Мы собрали специализированную базу изображений винограда и пшеницы, состоящую из 10 классов изображений. Используя глубокие сиамские сети, мы смогли добиться 93% точности предсказания при определении болезни растений. Мы разработали веб-портал, предоставляющий общую информацию о проекте, позволяющий скачивать нашу базу изображений и запускать задачи по определению болезней. Будут представлены основные сведения о платформе и ее возможностях.

Параллельное компьютерное моделирование эффекта перемагничивания в джозефсоновском φ0-переходе

М. В. Башашин1,2, Е.В. Земляная1,2, Ю.М. Шукринов1,2, И.Р. Рахмонов1,3, П.Х. Атанасова4, С.А. Панайотова4
1Лаборатория информационных технологий, ОИЯИ, Дубна, Россия
2Государственный университет «Дубна», Дубна, Россия

3Физико-технический институт им. С. У. Умарова АН Республики Таджикистан, Душанбе, Таджикистан
4Пловдивский университет «Паисий Хилендарский», Болгария

Проведено численное исследование модели джозефсоновского φ0-перехода в системе «сверхпроводник – ферромагнетик – сверхпроводник» с прямой связью между магнитным моментом и джозефсоновским током с использованием двухшагового алгоритма Гаусса Лежандра для решения соответствующей системы уравнений. Выполнено численное моделирование эффекта перемагничивания в широком диапазоне параметров модели, для чего разработана параллельная вычислительная схема. Тестирование на гетерогенной платформе «HybriLIT» Многофункционального информационно-вычислительного комплекса Лаборатории информационных технологий ОИЯИ (Дубна) подтверждает эффективность MPI/C++ программы.

Распределенная информационно-вычислительная среда организаций стран-участниц ОИЯИ

Н.А. Балашов1, А.В. Баранов1, Н.А. Кутовский1, Е.М. Мажитова1,2, А.Н. Махалкин1, Р.Н. Семенов1,3
1Лаборатория информационных технологий, ОИЯИ, Дубна, Россия
2Институт ядерной физики, Алматы, Казахстан

3Российский экономический университет им. Г.В. Плеханова, Москва, Россия

Объединение счетных мощностей организаций стран-участниц Института в единую распределенную информационно-вычислительную среду представляется важной и актуальной задачей, решение которой позволило бы существенно ускорить проведение научных исследований и сократить срок получения значимых научных результатов. В данной работе описывается распределенная облачная инфраструктура, развернутая на базе ресурсов Лаборатории информационных технологий Объединенного института ядерных исследований (ОИЯИ) и некоторых организаций государств-членов ОИЯИ, объясняется мотивация этой работы, подход, на котором она основана, приводятся планы по использованию создаваемой инфраструктуры.

Решение задачи оптимизации для проектирования импульсной криогенной ячейки

А. С. Айриян1, Я. Буша мл. 1,2, О. Григорян1,3, Е. Е. Донец4
1Лаборатория информационных технологий, ОИЯИ, Дубна, Россия
2Институт экспериментальной физики, Словацкая академия наук, Словакия

3Кафедра теоретической физики, Ереванский государственный университет, Армения
4Лаборатория физики высоких энергий им. В. И. Векслера и А. М. Балдина, ОИЯИ, Дубна, Россия

Рассматривается задача оптимизации характеристик теплового источника криогенной ячейки – многослойной цилиндрической конфигурации, предназначенной для импульсной дозированной инжекции рабочих веществ в ионизационную камеру источника многозарядных ионов. Для решения задачи оптимизации разработан и программно реализован гибридный MPI+OpenMP алгоритм параллельных вычислений, основанный на методе перебора для поиска максимума интеграла пропорциональности объёму испаренного с поверхности ячейки газа. Алгоритм приводит к многократному решению начально краевой задачи для уравнения теплопроводности, которая решается численно методом переменных направлений. Для решения нелинейных разностных уравнений реализована схема простых итераций с адаптивным шагом по времени. Решение оптимизационной задачи для конкретной конфигурации ячейки на суперкомпьютере «ГОВОРУН» продемонстрировало многократное ускорение расчетов.

Программно-консультативный комитет по физике частиц
51-я сессия, 19–20 июня 2019 года

Мониторинг сервисов Tier-1

И. Кадочников, В. Кореньков, В. Мицин, И. Пелеванюк, Т. Стриж
Лаборатория информационных технологий, ОИЯИ, Дубна, Россия

В 2015 году в ОИЯИ был официально запущен в эксплуатацию центр обработки данных уровня Tier-1 для эксперимента CMS на LHC. Большая и постоянно развивающаяся инфраструктура, требования к качеству работы сервисов и сложная архитектура требуют постоянного труда для поддержания работоспособного состояния инфраструктуры. Система мониторинга оборудования основана на системе Nagios. Она работает на уровне инженерной инфраструктуры, сети и серверов.
Отдельно от мониторинга инфраструктуры появилась необходимость в использовании системы мониторинга сервисов. Сервисы самого высокого уровня, которые принимают задачи и данные из грид, полагаются на сервисы хранения и обработки более низкого уровня, которые, в свою очередь, полагаются на инфраструктуру. Информация о состоянии и активности Tier-1 сервисов предоставляется разнообразными и независящими друг от друга источниками.
В связи с высокими требованиями и недостаточной гибкостью изученных систем было принято решение разработать новую систему мониторинга. В задачи новой системы мониторинга входит сбор данных из разнообразных источников, переработка сырых данных в события и статусы и реакция в соответствии с набором правил, например, оповещение администраторов. На данный момент система мониторинга собирает данные из разных источников и может определять состояние и визуализировать полученную информацию, а также реагировать на возникающие ситуации.

Реконструкция событий на основе данных, получаемых с микростриповых детекторов трековой системы эксперимента BM@N

Дмитрий Баранов
Лаборатория информационных технологий, ОИЯИ, Дубна, Россия

Основные детекторы трековой системы эксперимента BM@N имеют микростриповый съем информации. Преимущество детекторов микрострипового типа заключается в использовании считывающей электроники, которая относительно проста в изготовлении за счет меньшего числа каналов по сравнению с пэдовыми или пиксельными детекторами. Однако данное преимущество практически полностью нивелируется существенным недостатком - появлением ложных пересечений (фейков), образующихся в результате восстановления координат со стриповых плоскостей, что значительно усложняет дальнейшую процедуру поиска треков заряженных частиц. С увеличением множественности события растет количество фейков, что ведет к снижению общей эффективности процедуры реконструкции событий.
В данном докладе рассматриваются особенности восстановления координат, как одного из этапов полной реконструкции физических событий, с трех типов микростриповых детекторов, используемых в эксперименте BM@N в 2017-2018 годах: GEM, SILICON и CSC. Также дается описание программной реализации алгоритмов моделирования и обработки данных, получаемых с этих детекторов.

Кластерная система мониторинга Многофункционального информационно-вычислительного комплекса (МИВК) ЛИТ

И. Кашунин, А. Долбилов, А. Голунов, В. Кореньков, В. Мицын, А. Стриж, Е. Лысенко
Лаборатория информационных технологий, ОИЯИ, Дубна, Россия

В начале 2015 года была введена в эксплуатацию система мониторинга МИВК ЛИТ Tier-1 и Tier-2. В связи с развитием вычислительного комплекса увеличивалось количество оборудования, а также количество измеряемых метрик. Таким образом, со временем количество отслеживаемых данных выросло, и производительности сервера системы мониторинга оказалось недостаточно. Решением данной проблемы явилось построение кластерной системы мониторинга. Это позволило распределить нагрузку с одного сервера на несколько, таким образом значительно увеличивая уровень масштабируемости.

Развитие облачных сервисов ОИЯИ

Н.А. Балашов1, А.В. Баранов1, Н.А. Кутовский1, Е.М. Мажитова1,2, А.Н. Махалкин1, Р.Н. Семенов1,3
1Laboratory of Information Technologies, JINR, Dubna, Russia
2Институт ядерной физики, Алматы, Казахстан
3Российский экономический университет им. Г.В. Плеханова, Москва, Россия

Облако ОИЯИ, основанное на модели "Инфраструктура как услуга", предоставляет пользователям ОИЯИ виртуальные машины, являющиеся универсальным вычислительным ресурсом, который предназначен как для персонального использования, так и в качестве основы для организации многопользовательских сервисов. В данной работе рассматриваются последние изменения в инфраструктуре облака ОИЯИ и общих облачных сервисах, а также представлены текущие разработки по новым сервисам - mon-service.jinr.ru и jupyter.jinr.ru.

Центр управления многофункциональным информационно-вычислительным комплексом ОИЯИ

А.О. Голунов, А.Г. Долбилов, И.С. Кадочников, И.А. Кашунин, В.В Кореньков, В.В. Мицын, И.С. Пелеванюк, Т.А. Стриж
Лаборатория информационных технологий, ОИЯИ, Дубна, Россия

Многофункциональный информационно–вычислительный комплекс (МИВК) в Лаборатории информационных технологий Объединенного института ядерных исследований (ЛИТ ОИЯИ) является сложным многокомпонентным программно-аппаратным комплексом, нацеленным на выполнение широкого круга задач, связанных с обработкой, анализом и хранением данных для обеспечения научно-производственной деятельности Института и государств-членов. Основными компонентами вычислительной инфраструктуры МИВК являются грид-сайты Tier-1 и Tier-2 глобальной грид инфраструктуры WLCG (Worldwide LHC Computing Grid), созданной для обработки данных экспериментов на Большом адронном коллайдере, облачная инфраструктура ОИЯИ и гетерогенный вычислительный кластер HybriLIT. Важным инструментом для обеспечения бесперебойной работы вычислительных систем такого уровня в режиме 24х7 является всесторонний мониторинг всех компонентов и подсистем центра. Для обеспечения оперативного контроля компонентов МИВК в Лаборатории информационных технологий создан центр управления Многофункциональным информационно-вычислительным комплексом (ЦУ МИВК), основными функциями которого являются круглосуточное наблюдение за состоянием аппаратной части компонентов, работоспособности сервисов, инженерной и сетевой инфраструктуры.

Измерение короткодействующих корреляций в эксперименте BM@N

В. Ленивенко1, С. Мерц1, В. Пальчик2, В. Панин3, М. Пацюк1, Н. Войтишин2
1Лаборатория физики высоких энергий им. В.И. Векслера и А.М. Балдина, ОИЯИ, Дубна, Россия
2Лаборатория информационных технологий, ОИЯИ, Дубна, Россия
3Комиссариат по атомной энергии и альтернативным энергоисточникам (КАЭ), Франция

BM@N (Baryonic Matter at Nuclotron) – эксперимент c фиксированной мишенью. Это первый функционирующий эксперимент ускорительного комплекса NICA-Nuclotron-M (Nuclotron-based Ion Collider fAсility). Основной целью эксперимента является изучение свойств адронов и образования (мульти) странных гиперонов на пороге рождения гиперядер.
В последнем сеансе, который закончился в апреле 2018 года, кроме основной программы BM@N, было проведено первое измерение короткодействующих двухнуклонных корреляций (Short-Range Correlations) в ядре углерода. Около 20% нуклонов ядер в любой момент времени находятся в интенсивно взаимодействующих SRC-парах, которые характеризуются большим абсолютным и малым импульсом системы центра масс по сравнению с импульсом Ферми. Традиционно свойства SRC-пар изучаются в реакциях жесткого рассеивания, когда частица пучка (электрон или протон) взаимодействует с одним нуклоном ядра. На эксперименте BM@N использовалась обратная кинематика: пучок ионов углерода сталкивался с жидководородной мишенью, при этом ядро после взаимодействия продолжало движение вперед и регистрировалось трекинговыми и времяпролетными системами спектрометра BM@N. Свойства остаточного ядра при импульсе пучка 4 ГэВ/с/нуклон никогда не исследовались ранее.
Мы представим краткий обзор предварительных результатов анализа данных первого измерения SRC на BM@N.

Постер Н. Войтишина занял второе место на ПКК по физике частиц

Инженерная инфраструктура суперкомпьютера ГОВОРУН

А. С. Воронцов, А.Г. Долбилов, М.Л. Шишмаков, E.A. Графов, A.С. Каменский, С.В. Марченко
Лаборатория информационных технологий, ОИЯИ, Дубна, Россия

Для поддержки суперкомпьютера ГОВОРУН, который является расширением гетерогенного кластера HybriLIT, была разработана особая инженерная инфраструктура. Данная инфраструктура сочетает в себе интеграцию двух решений для систем охлаждения: системы воздушного охлаждения для GPU-компоненты и системы водяного охлаждения для CPU-компоненты на основе разработки от группы компаний РСК.

ИТ- экосистема платформы HybriLIT

Д. Беляков1, Ю. Бутенко1, М. Киракосян1, M. Матвеев1, Д. Подгайный1, O. Стрельцова1, Ш. Торосян1, M. Вала2, M. Зуев1
1аборатория информационных технологий, ОИЯИ, Дубна, Россия
2Pavol Josef Safarik University, Kosice, Slovakia

Для более эффективного использования HPC-ресурсов при решении научно-прикладных задач, стоящих перед ОИЯИ, потребовало не только предоставления вычислительных ресурсов пользователям, а также разработать программно-информационную среду, позволяющую пользователям упростить работу с имеющимися вычислительными ресурсами. Другой аспект, повлиявший на развитие информационной среды, явилась интеграция с HPC-ресурсами пакетов прикладных программ, поддерживающих вычисления на HPC платформах которые активно применяются для решения сложных технических задач, необходимых для ОИЯИ. Все это естественным образом привело к формированию ИТ-экосистемы, которая явилась не только удобным средством для проведения ресурсоемких расчетов, но также стала плодотворной образовательной средой, позволяющей студентам ознакомиться с новейшими вычислительными архитектурами, изучить новейшие технологии и инструменты параллельного программирования, освоить работу со сложными пакетами прикладных и математических программ.

Суперкомпьютер ГОВОРУН: аппаратно-программная среда

Д.В. Беляков1, Ю.А. Бутенко1, И.А. Кашунин1, М.А. Матвеев1, М. Вала2
1Laboratory of Information Technologies, JINR, Dubna, Russia
2Университет Павла Йозефа Шафарика, Кошице, Словакия

Гетерогенная платформа «HybriLIT» является частью Многофункционального информационно-вычислительного комплекса (МИВК) Лаборатории информационных технологий ОИЯИ. Гетерогенная платформа состоит из суперкомпьютера «ГОВОРУН» и учебно-тестового полигона. Сетевая инфраструктура платформы базируется на 10GBASE-T Ethernet с двумя высоко-скоростными 100 Gbit/s сегментами, построенными на технологиях Mellanox Infiniband и Intel Omni-Path. Передача данных суперкомпьютера «ГОВОРУН» осуществляется на основе высокопроизводительной сетевой файловой системе «Lustre», работающей под управлением сети 100 Gbit/s Intel Omni-Path. Для реализации MPI процессов используется сеть Intel Omni-Path между CPU узлами и сеть Mellanox Infiniband между GPU узлами суперкомпьютера. Полная пиковая производительность суперкомпьютера составляет 500 TFlops для вычислений с двойной точностью и 1 PFlops для вычислений с одинарной точностью.

Использование суперкомпьютера ГОВОРУН для мегапроекта NICA

Д.В. Беляков1, А.Г. Долбилов1, М.И. Зуев1, А.Н. Мошкин2, Д.В. Подгайный1, О.В. Рогачевский2, О.И. Стрельцова1
1Лаборатория информационных технологий, ОИЯИ, Дубна, Россия
2Лаборатория физики высоких энергий им. В.И. Векслера и А.М. Балдина

Суперкомпьютер ГОВОРУН в настоящее время используется как для теоретических исследований, так и для моделирования событий для эксперимента MPD мегапроекта NICA. Для генерации моделированных данных эксперимента МPD используются вычислительные компоненты суперкомпьютера ГОВОРУН - Skylake (2880 вычислительных ядер) и KNL (6048 вычислительных ядер), данные сохраняются на сверхбыстрой системой хранения данных (ССХД) под управлением файловой системой Lustre, с последующей передачей на холодные хранилища под управлением файловых систем EOS и ZFS. В настоящий момент ССХД насчитывает пять серверов хранения с 12 SSD дисков с технологией подключения NVMe и общей емкостью 120 ТБ, что обеспечивает низкое время доступа к данным и скоростью приема/отдачи данных 30 ТБ в секунду. Благодаря высокой производительности ССХД, к маю 2019 году уже сгенерировано свыше 40 миллионов событий для эксперимента MPD с использованием генератора UrQMD для энергии столкновений ядер AuAu √s = 4, 7, 9, 11 ГэВ. В дальнейшем предполагается также использовать и другие МС-генераторы.
Реализация различных моделей компьютинга для мега-проекта НИКА требует подтверждения работоспособности модели, т. е. удовлетворению требованиям к временным характеристикам приема данных с детекторов с их последующей передачей на обработку, анализ и хранение, а также требованиям к эффективности моделирования и обработки событий в эксперименте. Для этих целей необходимо проведения испытаний в реальной программно-вычислительной среде, которая должна содержать все требуемые компоненты. В настоящий момент, такой средой является суперкомпьютер «ГОВОРУН», содержащий самые современные на сегодняшний день вычислительные ресурсы и гиперконвергентную ССХД с программно-определяемой архитектурой, что позволяет обеспечить максимальную гибкость конфигураций системы хранения данных.
Для управления задачами и процессом считывания/записи/обработки данных с разных типов хранилищ и разных типов файловых систем планируется использовать ПО DIRAC.
Все вышеперечисленное позволит проверить базовый набор технологий хранения и передачи данных, в том числе промоделировать потоки данных, выбрать оптимальные распределенные файловые системы, а также повысить эффективность моделирования и обработки событий.
Исследования в данном направлении были поддержаны специальным грантом РФФИ («Мегасайенс – NICA») номер 18-02-40101 и 18-02-40102.

Программно-консультативный комитет по ядерной физике
50-я сессия, 24–25 июня 2019 года

Программная платформа JOIN² для институционального репозитория открытого доступа ОИЯИ

И.А. Филозова, Р.Н. Семёнов, Г.В. Шестакова, Т.Н. Заикина
Лаборатория информационных технологий, ОИЯИ, Дубна, Россия

В последние годы открытая научная инфраструктура стала важной тенденцией для предоставления научной информации исследователям, государству и обществу. Во всем мире научно-исследовательские институты и университеты активно планируют и внедряют архивы публикаций и материалов с результатами своей научной деятельности. Сервер документов ОИЯИ (JDS — jds.jinr.ru) базировался на программной платформе Invenio (разработанной в ЦЕРН). Целью JDS является хранение информационных ресурсов ОИЯИ и обеспечение эффективного доступа к ним. JDS содержит множество материалов, которые отражают и облегчают исследовательскую деятельность.
В рамках проекта JOIN2 (Just anOther INvenio INstance) партнеры улучшили и адаптировали программную платформу Invenio к информационным потребностям пользователей проекта JOIN2. Так как потребности пользователей JDS очень схожи с потребностями пользователей проекта JOIN2, было принято решение присоединиться к проекту JOIN2. Участие ОИЯИ в проекте улучшит функциональность институционального репозитория открытого доступа за счет повторного использования кода и дальнейшей совместной разработки.
Ключевыми моментами являются миграция и адаптация Сервера документов ОИЯИ на платформу JOIN2. При переходе на платформу JOIN2 были обнаружены новые проблемы, например, были реализованы улучшения, необходимые для обработки кириллицы для правильного отображения авторитетных записей. Это улучшение применяется и к другим национальным языкам. Это фактически позволяет системе обрабатывать любой язык в любом сценарии. К особенностям JDS можно отнести мультимедийную информацию; импорт данных по номеру DOI, ISBN, ID from arXiv, WoS, Medline, Inspec, Biosis, PubMed; закрытые коллекции «Документы ограниченного доступа» c идентификацией пользователей по рабочим группам; коллекцию авторитетных записей — сотрудники института, гранты, подразделения, эксперименты, журналы; связь авторитетных записей с библиографическими.
JOIN² предоставляет пользователям, авторам, библиотекарям, менеджерам и т.д. удобный доступ к результатам научной деятельности и обеспечивает богатые функциональные возможности. Платформа JOIN² охватывает несколько уровней проверки пользовательских данных, что позволяет исключить различные типы ошибок, обеспечивает высокий уровень стандартизации и каталогизации, повышение полноты и точности информационного поиска.

Идентификация тяжелых фрагментов с помощью метода энергетических потерь в детекторе STS эксперимента СВМ

О.Ю. Дереновская1, В.В. Иванов1,2, Ю.О. Васильев3,4
1Лаборатория информационных технологий, ОИЯИ, Дубна, Россия
2Национальный исследовательский ядерный университет “МИФИ”, Москва, Россия
3Общество по исследованию тяжелых ионов, ГСИ, Дармштадт, Германия
4Университет им. И. В. Гёте, Франкфурт-на-Майне, Германия

В настоящее время на строящемся в ГСИ (Дармштадт, Германия) ускорительном комплексе FAIR большой международной коллаборацией с участием ОИЯИ ведется подготовка эксперимента СВМ. Одной из целей эксперимента является изучение процесса рождения гиперядер. Теоретические модели предсказывают, что одиночные и даже дважды странные гиперядра образуются в столкновениях тяжелых ионов с максимальным выходом в области энергий SIS100. Открытие и исследование новых (вдвойне странных) гиперядер позволит пролить свет на взаимодействие гиперон-нуклон и гиперон-гиперон. Чтобы точно измерить выходы гиперядер и их время жизни, необходимо идентифицировать их продукты распада, включая 3He и 4He. В данной работе была изучена возможность идентификации тяжелых фрагментов c помощью метода энергетических потерь в детекторе STS. Критерий ωkn был успешно адаптирован для идентификации двухзарядных и однозарядных частиц. Комбинация метода энергетических потерь и критерия ωkn показала высокий уровень подавления фона и идентификации 3He и 4He.

Моделирование центра обработки данных Института физики высоких энергий Китайской академии наук

Д.И. Пряхина1, a, А.В. Нечаевский1, В.В. Трофимов1, Г.А. Ососков1, Д.М. Маров2
1Лаборатория информационных технологий, ОИЯИ, Дубна, Россия
2Государственный университет «Дубна», Дубна, Россия
E-mail: apryahinad@jinr.ru

В Лаборатории информационных технологий (ЛИТ) Объединенного института ядерных исследований (ОИЯИ) разработана система имитационного моделирования систем хранения и обработки данных крупных научных экспериментов, а именно программный комплекс SyMSim (Synthesis of Monitoring and Simulation).
Разработанный комплекс неоднократно применялся к широкому классу задач проектирования систем обработки и хранения больших массивов данных. Для взаимодействия с программным комплексом был разработан web-сайт, который позволяет создавать моделируемую инфраструктуру в режиме конструктора путем размещения необходимых компонент в заданной области, настраивать параметры оборудования и просматривать результаты моделирования в виде графиков.
В 2018 году программный комплекс был адаптирован для вычислительного центра Института физики высоких энергий Китайской Академии наук (IHEP). Совместно с китайскими коллегами было проведено моделирование центра обработки данных IHEP. В качестве входных данных для моделирования использовались параметры из базы данных вычислительной инфраструктуры Института физики высоких энергий, а также некоторые данные эксперимента BESIII. Результаты моделирования позволили дать рекомендации по выбору топологии сети для повышения ее производительности

Алгоритмы и методы высокоточного компьютерного моделирования циклотронов для протонной терапии на примере SC202

Т. Карамышева1, О. Карамышев2, В. Малинин2, Д. Попов2
1Лаборатория информационных технологий, ОИЯИ, Дубна, Россия
2Лаборатория ядерных проблем им. В.П. Джелепова, ОИЯИ, Дубна, Россия


Эффективное и точное компьютерное моделирование крайне важно при проектировании и производстве ускорителей. Наиболее сложной и важной задачей в разработке циклотрона является моделирование магнитного поля. Необходимо достичь точности поля выше, чем допустимая погрешность поля реального магнита. Качественная модель магнита и других систем циклотрона позволяет нам производить расчет траекторий пучка через весь ускоритель, начиная с ионного источника и заканчивая выводом. В то время как высокая точность является абсолютным приоритетом при поздних стадиях проектирования, при ранних стадиях ключевую роль играет скорость расчета и возможность быстро анализировать и вносить изменения в проект. Для создания циклотрона протонной терапии SC202 были разработаны алгоритмы и методы, которые сочетают в себе высокую точность и быстроту расчета его магнитного поля. Циклотрон на данный момент находится на стадии производства, которое ведется коллаборацией ОИЯИ (Дубна, Россия) и ASIPP (Хефей, Китай).

Монте-Карло изучение систематических ошибок в измерении рассеяния ионов 15N на 10,11B

И. Сатышев1, С. Белогуров1,2, Б. Мауий2, В. Щетинин1, E. Овчаренко1, M. Козлов3
1Лаборатория информационных технологий, ОИЯИ, Дубна, Россия
2Лаборатория ядерных реакций им. Г.Н. Флерова, ОИЯИ, Дубна, Россия
3Учебно-научный центр, ОИЯИ, Дубна, Россия

Серия экспериментов по упругому рассеянию 15N-ионов от 10,11B была проведена на циклотроне U-200P лаборатории тяжелых ионов Варшавского университета с использованием системы обнаружения заряженных частиц ICARE. Измеренные дифференциальные сечения используются для получения теоретической интерпретации в терминах оптической модели чистого упругого рассеяния и в терминах искаженных волн в Борновском приближении для механизма переноса кластеров. Надежность интерпретации зависит от систематических ошибок эксперимента. В этой работе мы сообщаем об исследовании таких ошибок методом Монте-Карло, используя в качестве среды моделирования и анализа ExpertRoot на основе пакета FairRoot. Исследовано влияние таких факторов, как угловой, пространственный и энергетический разброс пучка, потери энергии и многократное рассеяние в мишени, а также влияние размера щели детектора на угловое разрешение детектора и восстановленное дифференциальное сечение. Модель Монте-Карло позволила изучить влияние эффективности идентификации и обнаружения ионов, а также влияние энергетического разрешения. Однако в данном эксперименте эти факторы не имели никакого значения. В результате было продемонстрировано, что восстановленное дифференциальное сечение немного отличается от входного. Основной причиной этого различия является размер пятна пучка на мишени. Влияние длины щели незначительно, следовательно, оно может быть увеличено для лучшей эффективности обнаружения. Разработанное программное обеспечение будет использоваться для планирования и анализа подобных экспериментов в будущем.

Постер И. Сатышева занял третье место на ПКК по ядерной физике