add: MPI instruction and connection
This commit is contained in:
parent
bf86227ff0
commit
658d6fb659
|
@ -2,10 +2,14 @@
|
||||||
|
|
||||||
В приведённом документе рассматривается состав кластера ВолгГТУ а также основные методы работы пользователей.
|
В приведённом документе рассматривается состав кластера ВолгГТУ а также основные методы работы пользователей.
|
||||||
|
|
||||||
|
## [Подключение к вычислительному кластеру](./clusterBasics/connect.md)
|
||||||
|
|
||||||
## [Состав вычислительного кластера](./clusterNodes/nodelist.md)
|
## [Состав вычислительного кластера](./clusterNodes/nodelist.md)
|
||||||
|
|
||||||
Список узлов вычислительного кластера и их аппаратное обеспечение.
|
Список узлов вычислительного кластера и их аппаратное обеспечение.
|
||||||
|
|
||||||
## [Файл `~/.bashrc`](./clusterNodes/bashrc.md)
|
## [Файл `~/.bashrc`](./clusterNodes/bashrc.md)
|
||||||
|
|
||||||
Базовые консольные команды доступные пользователям вычислительного кластера.
|
Базовые консольные команды доступные пользователям вычислительного кластера.
|
||||||
|
|
||||||
|
## [MPI приложения. Инструкция по сборке и работе](./clusterBasics/mpi.md)
|
55
clusterBasics/connect.md
Normal file
55
clusterBasics/connect.md
Normal file
|
@ -0,0 +1,55 @@
|
||||||
|
# Подключение к вычислительному кластеру ВолгГТУ
|
||||||
|
|
||||||
|
Для работы с вычислительным кластером ВолГТУ можно использовать програмное обеспечение, использующее для взаимодействия протокол __ssh__.
|
||||||
|
|
||||||
|
## Вход на кластер
|
||||||
|
|
||||||
|
Для входа на вычислительный кластер Волгоградского государственного технического университета используются следующие аутентификационные данные:
|
||||||
|
|
||||||
|
### IP
|
||||||
|
|
||||||
|
`79.170.167.30`
|
||||||
|
|
||||||
|
или
|
||||||
|
|
||||||
|
`cluster.vstu.ru`
|
||||||
|
|
||||||
|
### Порт
|
||||||
|
|
||||||
|
`57322`
|
||||||
|
|
||||||
|
### Аутентификационные данные
|
||||||
|
|
||||||
|
Уточните у вашего преподавателя.
|
||||||
|
|
||||||
|
## После входа
|
||||||
|
|
||||||
|
Подключившись к головному узлу по инструкции выше __рекомендуется__ ничего не выполнять __прямо на нём__
|
||||||
|
|
||||||
|
Желательно сразу же перейти на другой узел при помощи команды
|
||||||
|
|
||||||
|
`ssh %имя_узла`
|
||||||
|
|
||||||
|
Список имён узлов для перехода можно найти в [__списке узлов вычислительного кластера__](../clusterNodes/nodelist.md)
|
||||||
|
|
||||||
|
|
||||||
|
## ПО для подключения
|
||||||
|
|
||||||
|
### Windows
|
||||||
|
|
||||||
|
Можно использовать утилиты [__PuTTY__](https://www.chiark.greenend.org.uk/~sgtatham/putty/latest.html) для подключения к кластеру и создания активного соединения и [__WinSCP__](https://winscp.net/eng/download.php) для передачи файлов, если вы используете Windows.
|
||||||
|
|
||||||
|
### Linux
|
||||||
|
|
||||||
|
Для подключения и передачи файлов можно применять обычный терминал используя команды:
|
||||||
|
|
||||||
|
`$ ssh %IP-адрес -p %порт`
|
||||||
|
|
||||||
|
`$ scp `
|
||||||
|
|
||||||
|
|
||||||
|
### Универсальное решение
|
||||||
|
|
||||||
|
Рекомендуется использовать для работы [__VisualStudioCode__](https://code.visualstudio.com/Download), в дальнейшем будет обозначаться как __VSCode__
|
||||||
|
|
||||||
|
|
46
clusterBasics/mpi.md
Normal file
46
clusterBasics/mpi.md
Normal file
|
@ -0,0 +1,46 @@
|
||||||
|
# MPI приложения. Инструкция по сборке и работе
|
||||||
|
|
||||||
|
## Подключение
|
||||||
|
|
||||||
|
После [__входа на кластер__](./connect.md) перейдите на узел из списка:
|
||||||
|
|
||||||
|
```
|
||||||
|
node36
|
||||||
|
node37
|
||||||
|
node38
|
||||||
|
node39
|
||||||
|
```
|
||||||
|
|
||||||
|
В случае если ни один из этих узлов недоступен можно использовать
|
||||||
|
|
||||||
|
`node32` или `node50`
|
||||||
|
|
||||||
|
Если ни один из этих узлов не работает, напишите письмо на почтту администратору кластера `565963@gmail.com` с темой: "Вычислительный кластер. Недоступность узлов"
|
||||||
|
|
||||||
|
## Компиляция
|
||||||
|
|
||||||
|
Для компиляции нам потребуется компилятор `mpiicc` либо `mpiicpc`.
|
||||||
|
|
||||||
|
Чтобы получить доступ к этим компиляторам, после входа на узел введите команду:
|
||||||
|
|
||||||
|
`$ targetIntel`
|
||||||
|
|
||||||
|
Компиляция производится следующим образом:
|
||||||
|
|
||||||
|
`$ mpiicpc %файл_исходного_кода.cpp -o %скомпилированный_исполняемый_файл`
|
||||||
|
|
||||||
|
Для примера:
|
||||||
|
|
||||||
|
`$ mpiicpc mpi_lab1.cpp -o compiled_lab1`
|
||||||
|
|
||||||
|
## Запуск
|
||||||
|
|
||||||
|
Для запуска потребуется утилита `mpirun` уже доступная после выполнения команды `targetIntel`
|
||||||
|
|
||||||
|
Запуск производится следующим образом:
|
||||||
|
|
||||||
|
`$ mpirun -np %число_процессов ./%скомпилированный_исполняемый_файл`
|
||||||
|
|
||||||
|
Для примера:
|
||||||
|
|
||||||
|
`$ mpirun -np 2 ./compiled_lab1`
|
|
@ -1,6 +1,6 @@
|
||||||
# Узлы вычислительного кластера
|
# Узлы вычислительного кластера
|
||||||
|
|
||||||
Вычислительные узлы кластера ВолгГТУ работают на базе операционной системы `Rocky 8` версий `8.8` и `8.10` (эта информация будет обновлена после полного перехода на `Rocky 8.10`)
|
Вычислительные узлы кластера ВолгГТУ работают на базе операционной системы `Rocky 8` версии `8.10` (эта информация будет обновлена после полного перехода на `Rocky 8.10`)
|
||||||
|
|
||||||
## Головной узел
|
## Головной узел
|
||||||
|
|
||||||
|
|
Loading…
Reference in New Issue
Block a user