Кластер HPC1
Высокопроизводительный вычислительный кластер HPC1 с пиковой производительностью 34,3 TFLOPS сдан в эксплуатацию в июне 2008 года. В 15-ой редакции российского рейтинга суперкомпьютеров top50 он занимает позицию #19.
Кластер состоит из 432 счётных двухпроцессорных узлов, объединенных высокопроизводительной сетью передачи данных и сообщений InfiniBand DDR, имеет суммарную оперативную память 4,7 Тбайт и систему хранения данных на 40,5 Тбайт. Фактически, кластер состоит из счётных узлов трёх видов, различающихся частотой процессоров и количеством оперативной памяти.
На счётных узлах кластера установлена операционная система Linux (RHEL). Система хранения данных построена на параллельной файловой системе HP SFS (основана на Lustre 1.6). Для управления распределением ресурсов и выполнением счетных заданий используется менеджер ресурсов SLURM.
| Количество узлов | 336 | 
| Количество процессоров | 672 | 
| Количество ядер | 2688 | 
| Оперативная память на узел (Гбайт) | 8 | 
| Локальная дисковая память на узел (Гбайт) | 72 | 
| Количество узлов | 64 | 
| Количество процессоров | 128 | 
| Количество ядер | 512 | 
| Оперативная память на узел (Гбайт) | 16 | 
| Дисковая память на узел (Гбайт) | 72 | 
| Количество узлов | 32 | 
| Количество процессоров | 64 | 
| Количество ядер | 256 | 
| Оперативная память на узел (Гбайт) | 32 | 
| Дисковая память на узел (Гбайт) | 72 | 
| Всего счётных узлов | 432 | 
| Всего вычислительных ядер | 3456 | 
| Общая пиковая производительность (TFLOPS) | 34,3 | 
Подкластер из счётных узлов второго типа в настоящее время используется исключительно для задач Грид-центра.