Вернуться к обычному виду

Центр коллективного пользования "Суперкомпьютерный центр ОИВТ РАН"

Общие сведения

Центр коллективного пользования (ЦКП) "Суперкомпьютерный Центр ОИВТ РАН" был создан в 2016 году на базе информационно-вычислительного центра ОИВТ РАН. Руководителем ЦКП является Левашов Павел Ремирович, специалист в области вычислительной физики. Основной целью ЦКП является предоставление высокопроизводительных вычислительных ресурсов учреждениям, подведомственным ФАНО России и иным организациям, для проведения фундаментальных и прикладных научных исследований. ЦКП предназначен для решения следующих задач: 
  1. Обеспечение непрерывного функционирования вычислительных ресурсов коллективного пользования, включая организацию сервисного обслуживания, восстановления и ремонта оборудования вычислительной и инженерной инфраструктуры, регулярное обновление программного обеспечения. 
  2. Обеспечение круглосуточного удаленного доступа зарегистрированных пользователей к вычислительным ресурсам СКЦ ОИВТ.
  3. Информационная и методическая поддержка пользователей посредством электронной почты scc@jiht.ru и сайта.
  4. Консультативная помощь пользователям по установке и настройке программного обеспечения, компиляции и запуску задач.
  5. Разработка и реализация программы развития материально-технической базы, включая подготовку заявок на приобретение оборудования, разработку конкурсной документации и т.п
  6. Внедрение новых аппаратных и программных средств параллельных и распределенных вычислений.

Контактная информация

Адрес: 125412, г. Москва, ул. Ижорская, д.13, стр.2, Объединенный институт высоких температур РАН
Телефон: +7(495)4842456
Электронная почта: scc@jiht.ru

Документы ЦКП

Перечень оборудования

Вычислительный кластер NWO5

Кластер NWO5 был поставлен в ОИВТ РАН в 2005 году на средства РФФИ. На кластере проводились расчеты по атомистическому моделированию методом Монте-Карло и молекулярной динамики, а также континуальному моделированию гидродинамических и магнитно-гидродинамических задач. Кроме того, на кластере настроено программное обеспечение для проведения расчетов в GRID-системах. Кластер состоит из 13 вычислительных узлов, имеющих следующие характеристики: 2 процессора Intel Xeon 3.0 ГГц, 2 Гб оперативной памяти на узел, жесткий диск на 160 Гб, сетевые интерфейсы Fast Ethernet и Gigabit Ethernet. Производительность кластера на тесте LINPACK составляет 108 Гфлопс.

Вычислительный кластер Т-Платформы TEdge-48 ОИВТ РАН

Вычислительный кластер Т-Платформы TEdge-48 компании T-Платформы был поставлен в ОИВТ в 2008 году и состоит из 24 вычислительных модулей. Каждый модуль содержит 2 четырехядерных процессора Intel Xeon 5445 с тактовой частотой 2.33 ГГц и 8 Гбайт оперативной памяти. Кроме того, есть управляющий модуль, предназначенный для компиляции и запуска задач, с файловым хранилищем на 6 Тб. Для связи между вычислительными модулями используются две сети Gigabit Ethernet и одна оптоволоконная сеть Infiniband. Производительность кластера на тесте Linpack составляет 1.4 Tflops.

Спецификации кластера:

  1. Вычислительный узел: CPU: 2 x Quad-Core Intel Xeon™ 5345, 2.33 Ghz; RAM: 8GB FBDIMM; HDD: SATA 250Gb; Rails; 1U.
  2. Головной узел: CPU: 2 x Quad-Core Intel Xeon™ 5345, 2.33 GHz; RAM: 16GB FBDIMM; RAID, HDD: 6 x SATA 500Gb; Rails; 2U.
  3. Система хранения данных: ReadyStorage NAS 3160 [12 x HDD SATA-II 500GB 7200rpm 16MB cache; Caсhe-память RAID контроллера 2Gb; 3U.
  4. Система бесперебойного питания: ИБП APC Symmetra LX 16kVA.
  5. Программное обеспечение:
    1. Компилятор C++ - Intel® C++ Compiler Professional Edition + MKL, IPP - Floating 5 Seat Pack, and TBB for Linux;
    2. Компилятор Fortran - Intel® Fortran Compiler Professional Edition + MKL for Linux - Floating 5 Seat Pack;
    3. Отладчик параллельных приложений - TotalView Debugger (64 Tokens);
    4. ПО для обнаружения и устранения ошибок использования оперативной памяти параллельных приложений - TotalView MemoryScape (6 Tokens).

На кластере производятся расчеты различных фундаментальных и прикладных задач:

  1. Моделирование термодинамических, транспортных и оптических свойств материалов методами классической и квантовой молекулярной динамики;
  2. Моделирование ударно-волновых процессов, динамики дислокаций, фазовых переходов и других явлений методом классической молекулярной динамики.
  3. Моделирование квантовых систем, включая вырожденную плазму водорода, электронно-дырочную плазму и кварк-глюонную плазму, методами Монте-Карло и квантовой динамики;
  4. Моделирование ударно-волновых процессов и воздействия лазерного излучения на вещество методами механики сплошных сред;
  5. Моделирование магнитосферы Земли при движении в ней различных объектов на основе магнитно-гидродинамического приближения.

 

Вычислительный кластер DESMOS

Кластер состоит из 32 вычислительных узлов и одного головного. Конфигурация вычислительного узла:

  • Шасси Supermicro SuperServer 1018GR-T;
  • CPU Intel Xeon E5-1650v3 (6 cores, 3.5 GHz);
  • GPU Nvidia GeForce GTX 1070 (8 GB GDDR5);
  • DRAM DDR4 16 GB;
  • HDD HDD 500 GB.

Узлы соединены с помощью Gigabit Ethernet и интерконнекта Ангара. Текущей топологией суперкомпьютера является 4D-тор 4 х 2 х 2 х 2 (X х Y х Z х K), но каждый узел по осям Y,Z,K соединен с другим лишь одним линком. Также в составе суперкомпьютера имеется идентичный по конфигурации головной узел, соединенный с остальными узлами с помощью Gigabit Ethernet. Суперкомпьютер работает под управлением ОС LES 11 SP4 с библиотекой Angara MPI, которая базируется на MPICH 3.0.4.

Энергопотребление суперкомпьютера без нагрузки составляет 6.5 кВт. При полной на- грузке суперкомпьютер потребляет 14.4 кВт.

Интерконнект Ангара — это спроектированная в России коммуникационная сеть тороидальной топологии. СБИС адаптеров был разработан в АО “НИЦЭВТ” и произведен компанией TSMC по технологическому процессу 65 нм.

Архитектура Ангары использует принципы, аналогичные тороидальным интерконнектам IBM Blue Gene L/P и Cray Seastar2/Seastar2+. Тороидальный интерконнект, созданный EXTOLL также имеет общие черты с Ангарой [21]. Чип Ангары поддерживает deadlockfree адаптивную маршрутизацию, направленно-упорядоченную маршрутизацию, а также методы для повышения отказоустойчивости.

Каждый узел имеет выделенную область в памяти, доступную для удаленного доступа с других узлов (поддерживаются атомарные и read/write операции), что обеспечивает поддержку языков OpenSHMEM и PGAS. Для MPP-программной модели имеется поддержка MPI и OpenMP.

Сетевой адаптер представляет собой плату PCI Express, которая может быть использована для соединения с соседними узлами с возможностью подключения 6 кабелей (или 8 кабелей при использовании платы расширения). Поддерживаемыми топологиями в данном случае являются кольцо, двумерный, трехмерный и четырехмерный торы.

Сведения о календарной загрузке оборудования

Перечень оказываемых типовых услуг

Услуги, оказываемые ЦКП:
  1. выделение вычислительных ресурсов на многопроцессорной вычислительной технике (кластере) для проведения вычислительных экспериментов;
  2. выделение вычислительных ресурсов для курсов обучения параллельному программированию и многопроцессорной вычислительной технике;
  3. настройка пользовательских вычислительных пакетов для проведения вычислительных экспериментов на кластере;
  4. анализ и оптимизация вычислительных приложений для работы на многопроцессорной технике.

Оказание Услуг осуществляется в соответствии с действующими законами и локальными нормативными актами.

Результатом оказания Услуг являются новые знания, а именно, экспериментальные данные в научно-исследовательских работах, параметрические характеристики в технологических работах, методические рекомендации в методических работах, а также сертификаты обучения в учебных работах.

Подробный перечень услуг можно найти в Регламенте Центра коллективного пользования "Суперкомпьютерный центр ОИВТ РАН" по оказанию услуг внешним пользователям для научно-исследовательских, технологических и учебных целей.

Регламент доступа к оборудованию

  1. Коллективный доступ к вычислительным комплексам СКЦ ОИВТ осуществляется по защищенному протоколу SSH.
  2. Для получения доступа необходимо заполнить заявление на сайте СКЦ ОИВТ и регистрационную форму. Скан-копию заявления, подписанного и заверенного печатью учреждения, следует прислать в СКЦ ОИВТ по электронной почте. Заявления на предоставление доступа рассматриваются в течение трех рабочих дней.
  3. Для поддержания базы пользователей в актуальном состоянии предусмотрена процедура перерегистрации, о необходимости которой пользователи информируются через рассылку по электронной почте.
  4. Пользователям запрещено передавать данные своей учетной записи другим лицам. В целях безопасности рекомендуется менять пароль после первого входа и не реже одного раза в год.
  5. Предоставленные вычислительные ресурсы могут использоваться исключительно для решения задач, указанных в заявлении. В случае изменения (дополнения) перечня решаемых задач пользователь обязан подать новое заявление.
  6. При опубликовании в открытой печати результатов, полученных с использованием вычислительных комплексов СКЦ ОИВТ, авторы обязаны информировать читателей об использовании вычислительных ресурсов СКЦ ОИВТ.
  7. Пользователи несут полную ответственность за лицензионную чистоту устанавливаемых ими программных продуктов и соответствие их использования действующему законодательству Российской Федерации.
  8. При проведении профилактических и ремонтных работ доступ к вычислительным комплексам может быть частично или полностью приостановлен, очереди задач блокированы, а активные задачи прекращены. По окончании работ перезапуск задач осуществляется пользователями самостоятельно. Информирование пользователей о проведении профилактических и ремонтных работ осуществляется через рассылку по электронной почте.

Проект договора на выполнение работ и оказания услуг для проведения научных исследований

Проект договора на выполнение работ и оказания услуг можно скачать здесь.

Форма заявки на выполнение работ и оказание услуг для проведения научных исследований

Форму заявки на выполнение работ и оказание услуг для проведения научных исследований можно скачать здесь.

Порядок расчета стоимости нестандартных услуг

Порядок расчета стоимости нестандартных услуг можно скачать здесь.

Перечень имеющихся методик/методов выполнения измерений


Центр коллективного пользования "Суперкомпьютерный центр ОИВТ РАН"