Вернуться к обычному виду

Центр коллективного пользования "Суперкомпьютерный центр ОИВТ РАН"

Общие сведения

Центр коллективного пользования (ЦКП) "Суперкомпьютерный Центр ОИВТ РАН" был создан в 2016 году на базе информационно-вычислительного центра ОИВТ РАН. Руководителем ЦКП является Левашов Павел Ремирович, специалист в области вычислительной физики. Основной целью ЦКП является предоставление высокопроизводительных вычислительных ресурсов учреждениям, подведомственным ФАНО России и иным организациям, для проведения фундаментальных и прикладных научных исследований. ЦКП предназначен для решения следующих задач: 
  1. Обеспечение непрерывного функционирования вычислительных ресурсов коллективного пользования, включая организацию сервисного обслуживания, восстановления и ремонта оборудования вычислительной и инженерной инфраструктуры, регулярное обновление программного обеспечения. 
  2. Обеспечение круглосуточного удаленного доступа зарегистрированных пользователей к вычислительным ресурсам СКЦ ОИВТ.
  3. Информационная и методическая поддержка пользователей посредством электронной почты scc@jiht.ru и сайта.
  4. Консультативная помощь пользователям по установке и настройке программного обеспечения, компиляции и запуску задач.
  5. Разработка и реализация программы развития материально-технической базы, включая подготовку заявок на приобретение оборудования, разработку конкурсной документации и т.п
  6. Внедрение новых аппаратных и программных средств параллельных и распределенных вычислений.

В 2018 году Cуперкомпьютер ОИВТ РАН «Десмос» вошел в топ-50 суперкомпьютеров России и стран СНГ


Контактная информация

Адрес: 125412, г. Москва, ул. Ижорская, д.13, стр.2, Объединенный институт высоких температур РАН
Телефон: +7(495)4842456
Электронная почта: scc@jiht.ru

Документы ЦКП

Перечень оборудования

Суперкомпьютер "Десмос"


Суперкомпьютер «Десмос» (вид сбоку и сзади)

Суперкомпьютер состоит из 32 вычислительных узлов и одного головного. Конфигурация вычислительного узла:

  • Шасси Supermicro SuperServer 1018GR-T;
  • CPU Intel Xeon E5-1650v3 (6 cores, 3.5 GHz);
  • GPU AMD FirePro S9150 (16 GB GDDR5);
  • DRAM DDR4 32 GB;
  • SSD 240 GB.

Узлы соединены с помощью интерконнекта Ангара и Gigabit Ethernet. Текущей топологией суперкомпьютера является 4D-тор 4 х 2 х 2 х 2 (X х Y х Z х K), но каждый узел по осям Y, Z, K соединен с другим лишь одним линком. Также в составе суперкомпьютера имеется идентичный по конфигурации головной узел, соединенный с остальными узлами с помощью Gigabit Ethernet.

Суперкомпьютер работает под управлением ОС SLES 11 SP4 с библиотекой Angara MPI, которая базируется на MPICH 3.0.4.

Интерконнект Ангара — это спроектированная в России коммуникационная сеть тороидальной топологии. СБИС адаптеров был разработан в АО “НИЦЭВТ” и произведен компанией TSMC по технологическому процессу 65 нм.

Архитектура Ангары использует принципы, аналогичные тороидальным интерконнектам IBM Blue Gene L/P и Cray Seastar2/Seastar2+. Тороидальный интерконнект, созданный EXTOLL, также имеет общие черты с Ангарой. Чип Ангары поддерживает deadlockfree адаптивную маршрутизацию, направленно-упорядоченную маршрутизацию, а также методы для повышения отказоустойчивости.

Каждый узел имеет выделенную область в памяти, доступную для удаленного доступа с других узлов (поддерживаются атомарные и read/write операции), что обеспечивает поддержку языков OpenSHMEM и PGAS. Для MPP-программной модели имеется поддержка MPI и OpenMP.

Сетевой адаптер представляет собой плату PCI Express, которая может быть использована для соединения с соседними узлами с возможностью подключения 6 кабелей (или 8 кабелей при использовании платы расширения). Поддерживаемыми топологиями в данном случае являются кольцо, двумерный, трехмерный и четырехмерный торы.

Суперкомпьютер "Фишер"

Вычислительный кластер состоит из 18 узлов и одного головного.
Суперкомпьютер работает под управлением ОС SLES12 SP3.

17 узлов имеют конфигурацию:

  • Шасси Supermicro 1023US-TR4
  • Процессор 2xАМD Epyc7301 (16 cores, 2.7 GHz)
  • Память 256 GB

16 подобных узлов объединены Infiniband FDR.

1 узел имеет конфигурацию:

  • Шасси Supermicro 1023US-TR4
  • Процессор 2xАМD Epyc7551 (32 cores, 3 GHz)
  • Память 256 GB


Сокет процессора AMD Epyc

Вычислительный кластер NWO5

Кластер NWO5 был поставлен в ОИВТ РАН в 2005 году на средства РФФИ. На кластере проводились расчеты по атомистическому моделированию методом Монте-Карло и молекулярной динамики, а также континуальному моделированию гидродинамических и магнитно-гидродинамических задач. Кроме того, на кластере настроено программное обеспечение для проведения расчетов в GRID-системах. Кластер состоит из 13 вычислительных узлов, имеющих следующие характеристики: 2 процессора Intel Xeon 3.0 ГГц, 2 Гб оперативной памяти на узел, жесткий диск на 160 Гб, сетевые интерфейсы Fast Ethernet и Gigabit Ethernet. Производительность кластера на тесте LINPACK составляет 108 Гфлопс.

 

Сведения о календарной загрузке оборудования

Перечень оказываемых типовых услуг

Услуги, оказываемые ЦКП:
  1. выделение вычислительных ресурсов на многопроцессорной вычислительной технике (кластере) для проведения вычислительных экспериментов;
  2. выделение вычислительных ресурсов для курсов обучения параллельному программированию и многопроцессорной вычислительной технике;
  3. настройка пользовательских вычислительных пакетов для проведения вычислительных экспериментов на кластере;
  4. анализ и оптимизация вычислительных приложений для работы на многопроцессорной технике.

Оказание Услуг осуществляется в соответствии с действующими законами и локальными нормативными актами.

Результатом оказания Услуг являются новые знания, а именно, экспериментальные данные в научно-исследовательских работах, параметрические характеристики в технологических работах, методические рекомендации в методических работах, а также сертификаты обучения в учебных работах.

Подробный перечень услуг можно найти в Регламенте Центра коллективного пользования "Суперкомпьютерный центр ОИВТ РАН" по оказанию услуг внешним пользователям для научно-исследовательских, технологических и учебных целей.

Регламент доступа к оборудованию

  1. Коллективный доступ к вычислительным комплексам СКЦ ОИВТ осуществляется по защищенному протоколу SSH.
  2. Для получения доступа необходимо заполнить заявление на сайте СКЦ ОИВТ и регистрационную форму. Скан-копию заявления, подписанного и заверенного печатью учреждения, следует прислать в СКЦ ОИВТ по электронной почте. Заявления на предоставление доступа рассматриваются в течение трех рабочих дней.
  3. Для поддержания базы пользователей в актуальном состоянии предусмотрена процедура перерегистрации, о необходимости которой пользователи информируются через рассылку по электронной почте.
  4. Пользователям запрещено передавать данные своей учетной записи другим лицам. В целях безопасности рекомендуется менять пароль после первого входа и не реже одного раза в год.
  5. Предоставленные вычислительные ресурсы могут использоваться исключительно для решения задач, указанных в заявлении. В случае изменения (дополнения) перечня решаемых задач пользователь обязан подать новое заявление.
  6. При опубликовании в открытой печати результатов, полученных с использованием вычислительных комплексов СКЦ ОИВТ, авторы обязаны информировать читателей об использовании вычислительных ресурсов СКЦ ОИВТ.
  7. Пользователи несут полную ответственность за лицензионную чистоту устанавливаемых ими программных продуктов и соответствие их использования действующему законодательству Российской Федерации.
  8. При проведении профилактических и ремонтных работ доступ к вычислительным комплексам может быть частично или полностью приостановлен, очереди задач блокированы, а активные задачи прекращены. По окончании работ перезапуск задач осуществляется пользователями самостоятельно. Информирование пользователей о проведении профилактических и ремонтных работ осуществляется через рассылку по электронной почте.

Проект договора на выполнение работ и оказания услуг для проведения научных исследований

Проект договора на выполнение работ и оказания услуг можно скачать здесь.

Форма заявки на выполнение работ и оказание услуг для проведения научных исследований

Форму заявки на выполнение работ и оказание услуг для проведения научных исследований можно скачать здесь.

Порядок расчета стоимости нестандартных услуг

Порядок расчета стоимости нестандартных услуг можно скачать здесь.

Перечень имеющихся методик/методов выполнения измерений


Центр коллективного пользования "Суперкомпьютерный центр ОИВТ РАН"