Основы параллельного программирования с использованием MPI - ответы
Количество вопросов - 122
Следующие подпрограммы позволяют сконструировать производный тип из однотипных базовых наборов:
Подпрограмма MPI_Comm_compare возвращает значение MPI_CONGRUENT:
Данная операция является операцией приведения:
Подпрограмма выполняет объединение двух коммуникаторов:
Подпрограммы-пробники предназначены для:
Операция совместных приёма и передачи:
Параллельная модель программирования это
Процессы, относящиеся к одному параллельному приложению, характеризуются:
После завершения вызова MPI_Wait:
Расщепление коммуникатора выполняется подпрограммой:
Широковещательная рассылка сообщения выполняется подпрограммой:
Последним по порядку вызовом подпрограммы MPI может быть вызов:
При неблокирующем двухточечном обмене:
Создание производного типа в MPI выполняется подпрограммой:
Подпрограмма является векторным вариантом операции коллективного обмена:
В MPI существуют следующие типы двухточечных обменов:
Операции коллективного обмена для инициировавших их процессов являются:
Создание группы выполняется подпрограммой:
Подпрограмма MPI_Scatter:
Особенностью последовательной модели программирования является:
Данная подпрограмма используется при организации одностороннего обмена:
Неблокирующая стандартная передача выполняется подпрограммой:
Подпрограмма является деструктором:
"Джокер" используется в подпрограмме двухточечного приема сообщения:
На программирование для систем с распределённой памятью ориентированы:
Параллельное программирование с использованием MPI имеет дело с параллелизмом на уровне:
Одним из распространённых средств разработки многопоточных программ является:
Запуск MPI-программы выполняется командой:
В MPI-программах на языке C устанавливается следующее соответствие между типами MPI и стандартными типами языка:
При организации двухточечного обмена с буферизацией используется подпрограмма:
Укажите, является ли данное утверждение верным для буферизованного двухточечного обмена:
Неблокирующий прием в MPI выполняется подпрограммой:
Первый этап выполнения неблокирующего обмена это:
Подпрограмма MPI_Test предназначена для:
Размер полученного сообщения можно определить с помощью подпрограммы:
Подпрограмма MPI_Waitall выполняет проверку:
В коллективном обмене принимают участие:
В терминологии MPI "коммуникатор" - это:
Создание коммуникатора выполняется подпрограммой:
Подпрограмма MPI_Comm_size:
Подпрограмма позволяет определить количество процессов в коммуникаторе:
Производный тип данных MPI используется для:
Регистрация производного типа выполняется подпрограммой:
Подпрограмма MPI_Type_extent:
В MPI имеются следующие виртуальные топологии:
Подпрограмма MPI_Cart_sub:
Проверка взаимодействия демонов между собой выполняется командой:
Коллективная передача данных может сочетаться с двухточечным приемом:
Компиляция MPI-программы выполняется командой:
К числу коллективных обменов относятся:
Создание векторного типа в MPI выполняется подпрограммой:
"Толщина барьера" при барьерной синхронизации это:
Неблокирующий вариант операций передачи сообщений существует для:
Получить значение ранга процесса можно с помощью подпрограммы MPI:
Отметьте правильную последовательность обращений к подпрограммам MPI:
Двухточечный обмен "по готовности" позволяет:
Подпрограмма выполняет сбор данных:
Выберите правильную последовательность действий при создании пользовательского типа:
При организации двухточечного обмена с буферизацией размер буфера должен превосходить объём пересылаемых данных на величину:
Следующие подпрограммы являются конструкторами векторного типа:
Особенностью параллельной модели программирования является:
Потоки выполнения, относящиеся к одному параллельному приложению, характеризуются:
Создание структурного типа в MPI выполняется подпрограммой:
Виртуальная топология графа характеризуется:
Одной из схем организации параллельных программ является:
Запуск демонов mpd выполняется командой:
В MPI существуют следующие типы двухточечных обменов:
Двухточечная передача с буферизацией выполняется подпрограммой
При стандартной блокирующей двухточечной передаче сообщения:
Подпрограмма MPI_Wait предназначена для:
Подпрограмма MPI_Testall выполняет проверку:
К числу коллективных обменов не относится:
Создание коммуникатора выполняется подпрограммой:
Вызов подпрограммы MPI_Comm_group:
Аннулирование производного типа выполняется подпрограммой:
Декартова топология характеризуется:
Данная подпрограмма используется для синхронизации одностороннего обмена:
В MPI-2 появились следующие новые возможности:
Стандартная блокирующая двухточечная передача выполняется подпрограммой
В двухточечном обмене сообщениями могут участвовать
Запуск процесса из MPI-программы выполняется подпрограммой:
Подпрограмма MPI_Comm_dup:
Неблокирующая передача с буферизацией выполняется подпрограммой:
Одним из распространённых средств разработки программ, основанных на модели обмена сообщениями, является:
Неблокирующий обмен позволяет:
Для выполнения коллективного обмена:
Первым по порядку вызовом подпрограммы MPI может быть вызов:
Последовательная модель программирования это:
При выполнении блокирующей передачи "по готовности":
Второй этап выполнения неблокирующего обмена это:
Подпрограмма MPI_Alltoall:
Подпрограмма дает доступ к удаленной группе:
Вызов подпрограммы MPI_Cart_create:
Данная подпрограмма выполняет операцию одностороннего обмена:
Какие подпрограммы выполняют сборку данных?
В терминологии MPI "интеркоммуникатор" - это:
В MPI существуют следующие типы двухточечных обменов:
Неблокирующий прием сообщений реализован в MPI:
Подпрограмма MPI_Testany выполняет проверку:
Подпрограмма создает интеркоммуникатор:
В терминологии MPI "интракоммуникатор" - это:
В MPI-2 включены следующие возможности:
Пусть значение параметра count в подпрограмме приёма двухточечного сообщения больше, чем количество элементов в принятом сообщении. Тогда: