Вы здесь

Оптимальна організація процесів моделювання в паралельному моделюючому середовищі

Автор: 
Солонін Олександр Миколайович
Тип работы: 
Дис. канд. наук
Год: 
2007
Артикул:
0407U001805
129 грн
Добавить в корзину

Содержимое

РАЗДЕЛ 2
СТРУКТУРНАЯ ОРГАНИЗАЦИЯ ОБМЕНОВ ИНФОРМАЦИЕЙ В ПАРАЛЛЕЛЬНОЙ МОДЕЛИРУЮЩЕЙ СРЕДЕ
2.1 Разработка опытного образца ПМС, обобщение структурной организации среды

Опытный образец параллельной моделирующей среды разработан с участием автора в рамках научного сотрудничества факультета ВТИ ДонНТУ с институтами параллельных и распределенных систем (IPVS), динамики систем и автоматического управления (ISR) и вычислительным центром Штуттгартского университета (HLRS) [43]. Параллельные вычислительные ресурсы среды, рабочие места и средства доступа находятся в Штуттгарте и Донецке, поэтому функционирование ресурсов происходит по принципам распределенных вычислительных систем. Разработчики и пользователи параллельных моделей ДССП и ДСРП получают доступ к аппаратным ресурсам ПМС, структура которой приведена на рис.2.1 [43].

Рис. 2.1 - Структурная организация аппаратных ресурсов ПМС
К аппаратным ресурсам ПМС относятся вычислительные системы MIMD - архитектуры и высокопродуктивные ЭВМ SISD - архитектуры, которые объединяются в параллельно функционирующие группы (кластеры), многочисленные территориально распределенные рабочие места, аппаратура вычислительных сетей различного уровня, серверы доступа к параллельным ресурсам, различное периферийное оборудование, ориентированное на задачи моделирования и территориально приближенное к группам пользователей, объединенных решением проблем моделирования.
В опытном образце ПМС предусматривается обеспечение интерактивного доступа с рабочих мест (РМ) пользователей и разработчиков моделей к ресурсам ПМС на всех этапах построения и исследования моделей [37] и прозрачность ресурсов среды для пользователей независимо от удаленности. Так, доступ ФВТИ-пользователей к параллельным вычислительным ресурсам HLRS производится с рабочего места (РМ) через сеть Internet и узел IPVS. Ресурсы HLRS защищены от несанкционированного доступа извне. Сервер в IPVS имеет право доступа к параллельным HLRS-ресурсам.
Кроме параллельных вычислительных машин в HLRS (MIMD-систем Cray и Hitachi) и ДонНТУ (Intel Paragon) имеется возможность доступа к файловому серверу, где можно сохранять дополнительные данные вследствие ограниченности дисковой квоты на машинах.
Методика доступа к удаленным ресурсам среды, примеры запуска тестовых задач приведены в Приложении 1.
К системным программным средствам (СПС) ПМС относится все программное обеспечение, необходимое для функционирования названных выше аппаратных ресурсов. СПС позволяют:
- выполнять операции с файловыми данными (копирование РМ<->IPVS<->HLRS и др.);
- выполнять процедуру авторизации при входе пользователя в систему;
- обеспечивать взаимодействие всех СПС, находящихся на разных компьютерах с разной архитектурой.
Существует несколько способов копирования данных между удаленными системами, в данном случае был использован ftp и scp/rcp. При таком подходе осуществляется полный контроль за выполнением операции и есть возможность продолжить копирование после аварийного останова.
Другой способ копирования - использование команд удаленного копирования rcp или scp, которые базируются на удаленном доступе к системе через rsh или ssh соответственно. Данный подход прост в использовании. Недостатком является невозможность продолжить копирование после аварийного останова.
Для получения возможности выполнить команду на удаленной системе необходимо сначала подключиться и войти в систему. Это можно сделать с использованием особых программных средств: telnet или ssh.
К средствам построения программного обеспечения относятся компиляторы C/C++ в MIMD- системах, с поддержкой MPI-библиотеки.
Структура СПС показана на рис.2.2.
Процесс доступа и проведения тестовых испытаний ПМС можно разделить на следующую последовательность действий:
- подключение к удаленной системе;
- отправка тестового задания;
- компиляция и запуск программы на удаленной системе;
- получение результатов;
- выход из удаленной системы.
Структуру разработанной версии среды в общем виде можно представить так, как показано на рис. 2.3. Она состоит из элементов трех типов:
1) Вычислительные ресурсы - ВР (SISD-ЭВМ высокой производительности, современные MIMD- ЭВМ и кластерные вычислительные системы);
2) Пользователи ПМС (РМ1 ... РМn - рабочие места) - группы разработчиков ДССП и ДСРП, которые могут находиться на значительном территориальном удалении от ВР;

Рис. 2.3 - Структура ПМС.
3) Коммуникационная среда (КС), которая обеспечивает доступ к ВР ПМС для пользователей независимо от их местоположения.
С точки зрения пользователя (отдельного рабочего места) ПМС выглядит так, как показано на рис. 2.4. Необходимо задаться некоторыми ограничениями на тип применяемых элементов среды. Будем при этом руководствоваться следующими соображениями:
* Так как в настоящее время ЭВМ SIMD-типа фактически отсутствуют, то в структуре ПМС будем рассматривать только ЭВМ MIMD- и SISD-типа;
* В качестве коммуникационной библиотеки для создания параллельных программ выберем библиотеку MPI, как наиболее распространенную и поддерживаемую большинством аппаратных платформ.
Рис.2.4 - Структура ПМС с точки зрения пользователя
Здесь:
* РМ - "отдельный" пользователь;
* РМ 1,..., РМ m - остальные пользователи;
* ВР(MIMD 1), ВР(MIMD n) - вычислительные ресурсы MIMD-типа, каждый из которых предоставляет пользователю свою реализацию коммуникационной библиотеки MPI;
* Х1, Хn - число процессоров в соответствующем MIMD-ресурсе;
* КС - коммуникационная среда.

Предложенная структура ПМС характеризуется следующими параметрами:
m - количество РМ (пользователей и разработчиков ПМС);
n - количество доступных MIMD-ресурсов;
Xi , i{1..n} - общее количество процессоров в i-м вычислительном ресурсе (ВР);
Yi , i{1..n} - количество доступных процессоров в текущий момент времени в i-м MIMD-ресурсе;
- время задержки доступа