LOGO
Ответы на тесты ИНТУИТ бесплатно
Решение тестов / курсов
База ответов ИНТУИТ.RU
Заказать решение курсов или тестов:
https://vk.com/id358194635
https://vk.com/public118569203
Быстрое и качественное решение курсов, тестов, экзаменов на любую оценку.
Низкие цены и выгодная система скидок постоянным клиентам, а также скидки при заказе нескольких решений.
Заказать решение - https://vk.com/id358194635
Добавь сайт в закладки, чтобы не потерять! (:
Intel Parallel Programming Professional (Introduction)
Количество вопросов 207
Пусть написана следующая параллельная программа:
int a = 0;#pragma omp parallel{…#pragma omp criticala++;…}
Чему равно значение "a" на четырех процессорной системе, после выполнения параллельной секции? перейти к ответу ->>
Признаками наличия неравномерной вычислительной нагрузки между потоками являются: перейти к ответу ->>
В OpenMP-программе имеется два распараллеленных цикла. Возможна ли ситуация, когда один поток закончит выполнение обоих циклов, в то время как другой поток все еще выполняет код первого цикла, при условии что все потоки запущены средствами OpenMP? перейти к ответу ->>
Статическая конвейерезация выполняется перейти к ответу ->>
Может ли информационная история некоторого фрагмента содержать 102 вершины и лишь 7 дуг? перейти к ответу ->>
Как называется состояние потока, заблокированного до наступления некоторого внешнего события перейти к ответу ->>
Для управления распределением итераций цикла между потоками в OpenMP используется параметр schedule директивы for. При типе расписания static: перейти к ответу ->>
Укажите положения, верные для решений задачи взаимного исключения, основанного на использовании специальных команд ЦП (Test&Set, Swap,…). перейти к ответу ->>
В OpenMP-программе объявлены переменные a и b типа int и массив c типа double. Отметьте верные варианты использования директивы omp atomic. перейти к ответу ->>
Можно ли применять метод сопряженных градиентов в качестве прямого метода решения системы линейных уравнений? Обоснуйте свой ответ. перейти к ответу ->>
Отметьте действия, не относящиеся к операции создания потока перейти к ответу ->>
Вы написали программу на языке C. Эта программа работает корректно на подготовленных тестовых данных, но скорость работы вас не устраивает. Каким инструментом, входящим в комплект поставки Parallel Studio, вы воспользуетесь для определения участка программы, на выполнение которого расходуется наибольшее количество времени? перейти к ответу ->>
Для корректного завершения работы MPI-программы можно вызвать функцию: перейти к ответу ->>
Степень параллелизма программы перейти к ответу ->>
В программе на MPI требуется с процесса с рангом 0 на процесс с рангом 1 переслать массив a из 10 элементов типа int. Какой код делает это верно? перейти к ответу ->>
Выберите утверждения, верные для невытесняющих алгоритмов планирования. перейти к ответу ->>
Верно ли, что информационная история любого фрагмента всегда содержит больше дуг, чем операционная история того же фрагмента? перейти к ответу ->>
При векторном способе новый производный тип создается как: перейти к ответу ->>
Под "гонками данных" понимается ситуация, когда: перейти к ответу ->>
Вы написали параллельную программу с использованием потоков на языке C. Вы запустили вашу программу 100 раз на 4-хядерной машине. 98 раз программа отработала корректно, 2 раза программа выдала не корректные данные. Чем вы воспользуетесь в первую очередь при дальнейшей разработке программы? перейти к ответу ->>
Рассмотрим задачу использования кольцевого буфера (задача "поставщик-потребитель"). Функции AddItemToBuffer и RemoveItemFromBuffer модифицируют структуру данных, разделяемую поставщиком и потребителем, и не используют синхронизацию. Предположим, что программа может выполняться как на однопроцессорных, так и на многопроцессорных системах, и одновременно могут выполняться несколько потоков-поставщиков и потоков-потребителей. Укажите, является ли решение корректным (всегда работает), или (2) некорректным (никогда не работает), или (3) опасным (в одних случаях работает, в других – нет).
int Bufs = N;  // Буфер содержит N записейM = unlocked;Full = 0;() { while(1){   M.Lock();   if( Bufs != 0 ){     Bufs --;     M.Unlock();     break;   }   M.Unlock(); } AddItemToBuffer();}() { while(1){   M.Lock();   if( Bufs != N ){     Bufs ++;     M.Unlock();     break;   }   M.Unlock(); } RemoveItemFromBuffer();}
перейти к ответу ->>
Функцию omp_get_thread_num используют для: перейти к ответу ->>
Программный продукт Intel Parallel Amplifier решает следующие задачи: перейти к ответу ->>
Пусть есть система с восемью вычислительными элементами. Известно, что доля последовательного кода составляет 20%. Какое максимальное ускорение можно получить с помощью технологии OpenMP? перейти к ответу ->>
Назначение программного продукта Intel Parallel Amplifier состоит в следующем: перейти к ответу ->>
Верно ли утверждение: если в тесновложенном гнезде циклов все итерации каждого цикла гнезда независимы, то перестановка циклов в таком гнезде будет эквивалентным преобразованием? перейти к ответу ->>
Минимально необходимый набор операций для организации информационного взаимодействия между процессорами в вычислительных системах с распределенной памятью включает в себя только: перейти к ответу ->>
Время, затраченное на следующие операции, может быть причислено к непроизводительным издержкам при работе с потоками: перейти к ответу ->>
Сформулируйте три варианта разложения Холецкого (строчный, столбцовый, с изменением подматрицы). Какой из алгоритмов предпочтителен при реализации? перейти к ответу ->>
В коллективных операциях передачи данных обязаны принимать участие: перейти к ответу ->>
Подход к оптимизации вычислений, основанный на использовании команд SIMD (SSE, SSE2…), называется: перейти к ответу ->>
Динамическое планирование это: перейти к ответу ->>
Отметьте частные ресурсы каждого потока перейти к ответу ->>
Что отвечает за управление потоками? перейти к ответу ->>
В каких случаях возможно возникновение гонок (races) при использовании несколькими потоками одного объекта данных? перейти к ответу ->>
Рассмотрим задачу использования кольцевого буфера (задача "поставщик-потребитель"). Функции AddItemToBuffer и RemoveItemFromBuffer модифицируют структуру данных, разделяемую поставщиком и потребителем, и не используют синхронизацию. Предположим, что программа может выполняться как на однопроцессорных, так и на многопроцессорных системах, и одновременно могут выполняться несколько потоков-поставщиков и потоков-потребителей. Укажите, является ли решение корректным (всегда работает), или (2) некорректным (никогда не работает), или (3) опасным (в одних случаях работает, в других – нет).
Semaphore Empty = N;  // Буфер содержит N записейFull = 0;() { Empty.P(); AddItemToBuffer(); Full.V();}() { Full.P(); RemoveItemFromBuffer(); Empty.V();}
перейти к ответу ->>
Рассмотрим решение задачи взаимного исключения для двух потоков (i - номер потока). Какое из условий постановки задачи взаимного исключения может быть нарушено в предлагаемом решении?
bool flag0 = false, flag1 = false;flag2 = 0;( true ){ flagi = true; flag2 = 1 - i; while( flag1-i && flag2 == 1 - i )   ; CSi(); flagi = false; NCSi();}
перейти к ответу ->>
Для создания параллельной области необходимо использовать директиву: перейти к ответу ->>
В параллельной области в OpenMP-программе необходимо выделить память под общую для всех потоков переменную. Отметьте верные варианты кода перейти к ответу ->>
Как, используя OpenMP, быстрее всего просуммировать элементы очень длинного массива? перейти к ответу ->>
Пусть есть система с четырьмя вычислительными элементами. Известно, что доля последовательного кода составляет 20%. Какое максимальное ускорение можно получить с помощью технологии OpenMP? перейти к ответу ->>
Пусть написана следующая параллельная программа:
int a = 0;#pragma omp parallel{…a++;…}
Чему равно значение "a" на четырех процессорной системе, после выполнения параллельной секции? перейти к ответу ->>
Пусть написан следующий параллельный код:
#pragma omp parallel for shared(a) private(i,j,sum) \                    schedule (dynamic, CHUNK) ordered{  for (i=0; i < NMAX; i++) {   sum = 0;   for (j=i; j < NMAX; j++)     sum += a[i][j]; #pragma omp ordered   printf ("Сумма элементов строки %d равна %f\n",i,sum);}
Будет ли суммирование происходить параллельно? перейти к ответу ->>
Функцию omp_get_num_threads используют для: перейти к ответу ->>
Отметьте верные утверждения: перейти к ответу ->>
Указание используемого коммуникатора является: перейти к ответу ->>
Прием сообщений при помощи функции MPI_Recv может быть осуществлен: перейти к ответу ->>
Применение неблокирующего способа выполнения обменов позволяет: перейти к ответу ->>
Коллективные операции MPI: перейти к ответу ->>
При индексном способе новый производный тип создается как: перейти к ответу ->>
Топология типа тор в MPI является частным видом топологии типа: перейти к ответу ->>
Вы написали программу на языке C. При сборке вашей программы выдаётся ошибка: "error LNK2019: unresolved external symbol…". Чем вы воспользуетесь для устранения этой ошибки? перейти к ответу ->>
Под "тупиками" понимается ситуация, когда: перейти к ответу ->>
К чему приводит неравномерное распределение вычислительной нагрузки между потоками? перейти к ответу ->>
Какие из следующих утверждений являются верными? перейти к ответу ->>
Время, затраченное на следующие операции, может быть причислено к непроизводительным издержкам при работе с потоками: перейти к ответу ->>
Сформулируйте три варианта LU-разложения (по столбцу, по строке, компактная схема). Какой из алгоритмов предпочтителен при реализации? перейти к ответу ->>
Реализуйте метод Гаусса без выбора ведущего элемента. Экспериментально оцените погрешность. Сравните полученную погрешность с погрешностью, которая получается при выборе ведущего элемента по столбцу и по строке. перейти к ответу ->>
Сформулируйте блочный алгоритм LU-разложения. Будет ли он эффективнее обычного алгоритма. перейти к ответу ->>
Сформулируйте метод верхней релаксации. Как вы оцениваете свойства метода с точки зрения его возможного распараллеливания? перейти к ответу ->>
Реализуйте параллельный метод встречной прогонки, оцените его трудоемкость. Сравните теоретическое ускорение параллельного метода с практическим. перейти к ответу ->>
Отметьте действия, не относящиеся к операции создания процесса перейти к ответу ->>
Чтобы использовать вложенные параллельные области перейти к ответу ->>
Под коммуникатором в MPI понимается: перейти к ответу ->>
Вам выдали работающую последовательную программу на языке C++. Вы выполняете оптимизацию программы. Чем вы воспользуетесь в первую очередь для получения более быстрой версии программы? перейти к ответу ->>
Назначение программного продукта Intel Parallel Inspector состоит в следующем: перейти к ответу ->>
Для распределения вычислений между процессорами в вычислительных системах с распределенной памятью необходимо: перейти к ответу ->>
При использовании каких алгоритмов планирования возможно голодание потоков? перейти к ответу ->>
В программе на OpenMP распараллелен следующий цикл, где выполнение функции f() может занимать существенно разное время в зависимости от значения входного аргумента
#pragma omp for(i = 0; i < 1000; i++)   с += func(i);
Каким образом можно добиться наилучшей балансировки вычислительной нагрузки между потоками? перейти к ответу ->>
Пусть написана следующая параллельная программа:
omp_set_num_threads(4)(“%d”, omp_get_num_threads());#pragma omp parallel{…}
Что выдаст программа на экран? перейти к ответу ->>
Какой из следующих шаблонов параллельного программирования лежит в основе технологии OpenMP? перейти к ответу ->>
В буферизованном режиме функция отправки сообщения завершается: перейти к ответу ->>
Вы написали программу на языке C. Эта программа работает корректно на подготовленных тестовых данных, но скорость работы вас не устраивает. Какими инструментами, входящими в комплект поставки Parallel Studio, вы воспользуетесь для увеличения скорости работы вашей программы? перейти к ответу ->>
Процесс обнаружения ошибки в параллельных программах обычно устроен следующим образом: перейти к ответу ->>
Коллективные операции должны быть вызваны: перейти к ответу ->>
Как называется состояние потока, обладающего всеми необходимыми ресурсами, в том числе возможностью использования ЦП перейти к ответу ->>
Отметьте верные утверждения: перейти к ответу ->>
Вы написали параллельную программу с использованием OpenMP на языке C. Эта программа работает корректно на подготовленных тестовых данных. Вы запустили вашу программу два раза на 4-хядерной машине. Первый раз вы запустили программу в один поток, и она работала 39 секунд, второй – в 4 потока и она работала 34 секунды. Чем вы воспользуетесь в первую очередь при дальнейшей разработке программы? перейти к ответу ->>
Завершение вызова функции неблокирующего обмена приводит: перейти к ответу ->>
Пусть написана следующая параллельная программа:
int *a;= new int [10];#pragma omp parallel shared(a){…[num_th] = num_th;…}
Какие проблемы могут наблюдаться при выполнении параллельной программы, если num_th это номер потока (потоков меньше 10)? перейти к ответу ->>
В OpenMP-программе имеются две параллельные области. Возможна ли ситуация, когда один поток закончит выполнение обеих параллельных областей, в то время как другой поток все еще выполняет код первой параллельной области, при условии что все потоки запущены средствами OpenMP? перейти к ответу ->>
Необходимость создания инструментов для отладки и профилирования параллельных программ вызвана следующими причинами: перейти к ответу ->>
Что включает в себя контекст потока? перейти к ответу ->>
Время, затраченное на следующие операции, может быть причислено к непроизводительным издержкам при работе с потоками: перейти к ответу ->>
Операцию редукции данных MPI_Reduce можно описать: перейти к ответу ->>
Функция блокирующего ожидания завершения одного обмена в MPI называется: перейти к ответу ->>
Процессы, между которыми выполняется передача данных: перейти к ответу ->>
В качестве параметров директивы sections могут использоваться: перейти к ответу ->>
Для установки симафора используются функции: перейти к ответу ->>
Пусть написана следующая параллельная программа:
int sum = 0;#pragma omp parallel for(int i = 0; i < 100; i++)   #pragma omp critical   sum++;
Какие проблемы могут наблюдаться при выполнении параллельной программы? перейти к ответу ->>
Пусть написана следующая параллельная программа:
int a = 0;#pragma omp parallel{…#pragma omp singlea++;…}
Чему равно значение "a" на четырех процессорной системе, после выполнения параллельной секции? перейти к ответу ->>
Где исполняется код, распараллеленный с помощью технологии OpenMP? перейти к ответу ->>
В OpenMP-программе необходимо подсчитать число потоков в параллельной области без использования функции omp_get_num_threads(). Отметьте верные варианты. перейти к ответу ->>
Для распределения итераций цикла между потоками необходимо использовать следующую директиву OpenMP: перейти к ответу ->>
Укажите наиболее важный критерий оценки алгоритмов планирования в системах пакетной обработки. перейти к ответу ->>
Что отвечает за управление процессами? перейти к ответу ->>
Может ли управляющий граф некоторого фрагмента программы быть связным, а его информационный граф несвязным? перейти к ответу ->>
Рассмотрим решение задачи взаимного исключения для двух потоков (i - номер потока). Какое из условий постановки задачи взаимного исключения может быть нарушено в предлагаемом решении?
bool flag0 = true, flag1 = false;( true ){ while( !flagi )   ; CSi(); flagi = false; flag1-i = true; NCSi();}
перейти к ответу ->>
Пусть написана следующая параллельная программа:
int a = 0;#pragma omp parallel{…#pragma omp mastera++;…}
Чему равно значение "a" на четырех процессорной системе, после выполнения параллельной секции? перейти к ответу ->>
Ускорение за счёт параллельного выполнения перейти к ответу ->>
Укажите оценку сложности современных алгоритмов планирования (N – число субъектов планирования). перейти к ответу ->>
Назначение программного продукта Intel Parallel Advisor состоит в следующем: перейти к ответу ->>
Для некоторого фрагмента программы построили четыре модели. Может ли оказаться несвязным граф: перейти к ответу ->>
MPI поддерживает топологии вида: перейти к ответу ->>
Процессы параллельной программой в рамках MPI: перейти к ответу ->>
Сформулируйте блочный алгоритм разложения Холецкого. Будет ли он эффективнее обычного алгоритма? перейти к ответу ->>
Пусть написана следующая параллельная программа:
omp_set_num_threads(4)#pragma omp parallel num_threads(3){…}#pragma omp parallel{…}
Сколько потоков будет создано в первой и во второй секции? перейти к ответу ->>
Реализуйте метод Гаусса без выбора ведущего элемента. Экспериментально оцените погрешность. Сравните полученную погрешность с погрешностью, которая получается при выборе ведущего элемента по столбцу. перейти к ответу ->>
Для каких вычислительных систем предназначена технология OpenMP? перейти к ответу ->>
Вы написали программу на языке C. Эта программа работает не корректно на части тестовых данных. Каким инструментом, входящим в комплект поставки Parallel Studio, вы воспользуетесь для поиска ошибки в вашей программе? перейти к ответу ->>
Пусть написан следующий параллельный код:
#pragma omp parallel for ordered{  for (i=5; i >= 0; i--) { #pragma omp ordered   printf ("%d ",i);}
В каком порядке выведутся числа? перейти к ответу ->>
Рассмотрим задачу использования кольцевого буфера (задача "поставщик-потребитель"). Функции AddItemToBuffer и RemoveItemFromBuffer модифицируют структуру данных, разделяемую поставщиком и потребителем, и не используют синхронизацию. Предположим, что программа может выполняться как на однопроцессорных, так и на многопроцессорных системах, и одновременно могут выполняться несколько потоков-поставщиков и потоков-потребителей. Укажите, является ли решение корректным (всегда работает), или (2) некорректным (никогда не работает), или (3) опасным (в одних случаях работает, в других – нет).
Semaphore Empty = N;  // Буфер содержит N записейM = unlocked;Full = 0;() { Empty.P(); M.Lock(); AddItemToBuffer(); M.Unlock(); Full.V();}() { full.P(); M.Lock(); RemoveItemFromBuffer(); M.Unlock(); empty.V();}
перейти к ответу ->>
Протяженность производного типа в MPI это: перейти к ответу ->>
На эффективность работы параллельной программы существенное влияние оказывают следующие факторы: перейти к ответу ->>
Процесс оптимизации параллельных программ обычно устроен следующим образом: перейти к ответу ->>
Укажите положения, верные для алгоритма Петерсона решения задачи взаимного исключения. перейти к ответу ->>
Какие из директив позволяют выполнить действия только в одном потоке перейти к ответу ->>
Вам выдали работающую последовательную программу, написанную на языке C++. Программа компилируется час, а объём исходников составляет 1.5 MB. Перед вами стоит задача распараллеливания программы. Чем вы воспользуетесь в первую очередь? перейти к ответу ->>
Отметьте ресурсы, которые потоки одного процесса используют совместно перейти к ответу ->>
Выберите наиболее правильное утверждение: перейти к ответу ->>
В программе на MPI, содержащей ввод данных, рассылку данных, вычислительный блок, сбор результатов, необходимо замерить время вычислительного блока. Каким образом это сделать корректно? перейти к ответу ->>
Отметьте верные утверждения об OpenMP: перейти к ответу ->>
Отметьте верные утверждения: перейти к ответу ->>
Рассмотрим решение задачи взаимного исключения для двух потоков (i - номер потока). Какое из условий постановки задачи взаимного исключения может быть нарушено в предлагаемом решении?
bool flag0 = false, flag1 = false;( true ){ flagi = true; while( flag1-i )   ; CSi(); flagi = false; NCSi();}
перейти к ответу ->>
Укажите наиболее важный критерий оценки алгоритмов планирования в интерактивных системах. перейти к ответу ->>
Программный продукт Intel Parallel Inspector решает следующие задачи: перейти к ответу ->>
Укажите положения, верные для решения задачи взаимного исключения, основанного на прерываниях. перейти к ответу ->>
Рассмотрим задачу использования кольцевого буфера (задача "поставщик-потребитель"). Функции AddItemToBuffer и RemoveItemFromBuffer модифицируют структуру данных, разделяемую поставщиком и потребителем, и не используют синхронизацию. Предположим, что программа может выполняться как на однопроцессорных, так и на многопроцессорных системах, и одновременно могут выполняться несколько потоков-поставщиков и потоков-потребителей. Укажите, является ли решение корректным (всегда работает), или (2) некорректным (никогда не работает), или (3) опасным (в одних случаях работает, в других – нет).
Semaphore Empty = N;  // Буфер содержит N записейM = unlocked;Full = 0;() { M.Lock(); Empty.P(); AddItemToBuffer(); Full.V(); M.Unlock();}() { M.Lock(); full.P(); RemoveItemFromBuffer(); empty.V(); M.Unlock();}
перейти к ответу ->>
В программе на OpenMP имеется вычислительный блок, содержащий два вложенных цикла с независимыми итерациями. Требуется распараллелить его с помощью OpenMP. Количество итераций внешнего цикла 1000, внутреннего – 1000000. Какой цикл выгоднее распараллелить: внешний или внутренний? перейти к ответу ->>
Что определяет количество потоков в рамках параллельной секции? перейти к ответу ->>
Пусть написана следующая параллельная программа:
int *a;#pragma omp parallel{…= new int [10];…}
Какие проблемы могут наблюдаться при выполнении параллельной программы? перейти к ответу ->>
Располагается два цикла. Возможна ли ситуация при которой один из потоков завершил выполнять итерации первого цикла и начал выполнять итерации второго цикла, а другие потоки нет? перейти к ответу ->>
Под параллельной программой в рамках MPI понимается: перейти к ответу ->>
Среди предусмотренных в составе MPI операций передачи сообщений различают: перейти к ответу ->>
Завершение функции MPI_Send означает, что: перейти к ответу ->>
Операция широковещательной рассылки данных это: перейти к ответу ->>
H-векторный и H-индексный способы создания данных отличаются от векторного и индексного способов тем, что: перейти к ответу ->>
Успешная отладка и оптимизация параллельных программ в системах с общей памятью требуют: перейти к ответу ->>
На значения каких критериев влияет размер кванта при использовании вытесняющих алгоритмов планирования? перейти к ответу ->>
Какие из следующих утверждений являются верными? перейти к ответу ->>
В каких случаях обязательно возникают гонки (races) при использовании несколькими потоками одного объекта данных? перейти к ответу ->>
Рассмотрим задачу использования кольцевого буфера (задача "поставщик-потребитель"). Функции AddItemToBuffer и RemoveItemFromBuffer модифицируют структуру данных, разделяемую поставщиком и потребителем, и не используют синхронизацию. Предположим, что программа может выполняться как на однопроцессорных, так и на многопроцессорных системах, и одновременно могут выполняться несколько потоков-поставщиков и потоков-потребителей. Укажите, является ли решение корректным (всегда работает), или (2) некорректным (никогда не работает), или (3) опасным (в одних случаях работает, в других – нет).
Semaphore Empty = N;  // Буфер содержит N записейM = unlocked;Full = 0;() { Empty.P(); M.Lock(); AddItemToBuffer(); Full.V();}() { full.P(); M.Lock(); RemoveItemFromBuffer(); empty.V();}
перейти к ответу ->>
Под ситуацией "заброшенные замки" понимается: перейти к ответу ->>
Выберите утверждения, верные для вытесняющих алгоритмов планирования. перейти к ответу ->>
Под параллельной программой в рамках MPI понимается: перейти к ответу ->>
Рассмотрим задачу использования кольцевого буфера (задача "поставщик-потребитель"). Функции AddItemToBuffer и RemoveItemFromBuffer модифицируют структуру данных, разделяемую поставщиком и потребителем, и не используют синхронизацию. Предположим, что программа может выполняться как на однопроцессорных, так и на многопроцессорных системах, и одновременно могут выполняться несколько потоков-поставщиков и потоков-потребителей. Укажите, является ли решение корректным (всегда работает), или (2) некорректным (никогда не работает), или (3) опасным (в одних случаях работает, в других – нет).
Semaphore Empty = N;  // Буфер содержит N записейFull = 0;() { Empty.P(); DisableInterrupts(); AddItemToBuffer(); EnableInterrupts(); Full.V();}() { Full.P(); DisableInterrupts(); RemoveItemFromBuffer(); EnableInterrupts(); Empty.V();}
перейти к ответу ->>
Какой тип планирования преимущественно используется в интерактивных системах? перейти к ответу ->>
Как называется состояние потока, обладающего всеми необходимыми для выполнения ресурсами за исключением ресурса "время ЦП" перейти к ответу ->>
В программе на OpenMP распараллелен следующий цикл
#pragma omp parallel for for (i = 0; i < 1000; i++) for (j = 0; j < 1000; j++)   с[i] += a[i][j] * b[j];
Является ли данная параллельная реализация корректной? перейти к ответу ->>
Имеется следующий код на OpenMP
double a = 10.0;#pragma omp parallel private(a){ ...}
Можно ли средствами OpenMP сделать так, чтобы локальные копии переменной а в каждом потоке имели то же значение, что и исходная переменная a? перейти к ответу ->>
Для сборки OpenMP-программы необходимо. перейти к ответу ->>
Основное предназначение OpenMP? перейти к ответу ->>
Для захвата симафора без блокировки потока используются функции: перейти к ответу ->>
Как определяется число процессов при запуске MPI-программы? перейти к ответу ->>
Прием сообщения при помощи функции MPI_Recv может быть инициирован: перейти к ответу ->>
Сигнатурой производного типа в MPI именуется: перейти к ответу ->>
Какова цель балансировки нагрузки между потоками: перейти к ответу ->>
Какие из следующих утверждений являются верными? перейти к ответу ->>
В программе на MPI необходимо распределить итерации цикла между процессами, считая, что время выполнения итераций примерно одинаковое перейти к ответу ->>
В декартовой топологии множество процессов представляется в виде: перейти к ответу ->>
Какое количество потоков может быть заведено в рамках параллельной секции? перейти к ответу ->>
Обобщенная передача данных от всех процессов всем процессам может быть описана как: перейти к ответу ->>
Для организации параллельных вычислений в вычислительных системах с распределенной памятью необходимо: перейти к ответу ->>
Для управления распределением итераций цикла между потоками в OpenMP используется параметр schedule директивы for. При типе расписания guided: перейти к ответу ->>
Рассмотрим решение задачи взаимного исключения для двух потоков (i - номер потока). Какое из условий постановки задачи взаимного исключения может быть нарушено в предлагаемом решении?
bool flag0 = false, flag1 = false;( true ){ while( flag1-i )   ; flagi = true; CSi(); flagi = false; NCSi();}
перейти к ответу ->>
Номер процесса в рамках MPI именуется: перейти к ответу ->>
В синхронном режиме передачи завершение функции отправки сообщения происходит: перейти к ответу ->>
Все данные для передачи в качестве сообщения MPI описываются с помощью триады: перейти к ответу ->>
Пусть написана следующая параллельная программа:
int *a;#pragma omp parallel{ #pragma omp sections  {   #pragma omp section   {     a = new int [10];     delete [] a;   }   #pragma omp section   {     a = new int [10];     delete [] a;   } }}
Какие проблемы могут наблюдаться при выполнении параллельной программы? перейти к ответу ->>
Вы написали параллельную программу с использованием OpenMP на языке C. Распараллеливание осуществляется за счёт одной строчки: “#pragma omp parallel for”. Другие средства OpenMP не используются, переменные окружения не меняются. Вы запустили вашу программу 100 раз на 1-оядерной машине. 58 раз программа отработала корректно, 32 раза программа выдала не корректные данные, 10 раз программа не доработала до конца и завершила работу с ошибкой. Чем вы воспользуетесь в первую очередь при дальнейшей разработке программы? перейти к ответу ->>
Можно ли в OpenMP программе управлять количеством потоков выполняющих работу, не меняя кода программы? перейти к ответу ->>
Выберите наиболее правильное утверждение: перейти к ответу ->>
Пусть написана следующая параллельная программа:
int sum = 0;#pragma omp parallel for for(int i = 0; i < 100; i++)   sum++;
Какие проблемы могут наблюдаться при выполнении параллельной программы? перейти к ответу ->>
Для управления распределением итераций цикла между потоками в OpenMP используется параметр schedule директивы for. При типе расписания dynamic: перейти к ответу ->>
Пусть написана следующая параллельная программа:
#pragma omp parallel{ int *a; #pragma omp sections  {   #pragma omp section   {     a = new int [10];     delete [] a;   }   #pragma omp section   {     a = new int [10];     delete [] a;   } }}
Какие проблемы могут наблюдаться при выполнении параллельной программы? перейти к ответу ->>
Директива #pragma omp barrier используется для: перейти к ответу ->>
Режим передачи по готовности может быть использован только если: перейти к ответу ->>
Какая директива OpenMP может быть использована для синхронизации потоков? перейти к ответу ->>
Директива #pragma omp sections используется для: перейти к ответу ->>
Для выполнения некоторого кода в параллельной области только нулевым потоком необходимо использовать перейти к ответу ->>
В OpenMP-программе необходимо задать число потоков равное двум. Отметьте верные варианты: перейти к ответу ->>
Пусть есть система с двумя вычислительными элементами. Известно, что доля последовательного кода составляет 50%. Какое максимальное ускорение можно получить с помощью технологии OpenMP? перейти к ответу ->>
Пусть написана следующая параллельная программа:
int sum = 0;#pragma omp parallel for reduction (sum) for(int i = 0; i < 100; i++)   sum++;
Какие проблемы могут наблюдаться при выполнении параллельной программы? перейти к ответу ->>
Производным типом данных в MPI называется: перейти к ответу ->>
В программе на MPI требуется принять от процесса с рангом 0 на процессе с рангом 1 массив a из 10 элементов типа int. Отметьте верные варианты. перейти к ответу ->>
Для чего в операциях "точка-точка" используется тег: перейти к ответу ->>
Пусть написана следующая параллельная программа:
int *a;= new int [10];#pragma omp parallel{…[num_th] = num_th;…}
Какие проблемы могут наблюдаться при выполнении параллельной программы, если num_th это номер потока (потоков меньше 10)? перейти к ответу ->>
Ваша OpenMP-программа содержит две параллельные области. Необходимо, чтобы число потоков в первой из них равнялось трем, а во второй определялось числом процессоров, доступных операционной системе. Отметьте верные варианты: перейти к ответу ->>
Функция MPI_Recv: перейти к ответу ->>
Функцию omp_get_num_procs используют для: перейти к ответу ->>
В программе на OpenMP распараллелен следующий цикл
#pragma omp for(i = 0; i < 1000; i++) for (j = 0; j < 1000; j++)   с[i] += a[i][j] * b[j];
Является ли данная параллельная реализация корректной? перейти к ответу ->>
Пусть написана следующая параллельная программа:
int sum = 0;#pragma omp parallel for(int i = 0; i < 100; i++)   #pragma omp single   sum++;
Какие проблемы могут наблюдаться при выполнении параллельной программы? перейти к ответу ->>
Под коллективными операциями в MPI понимаются: перейти к ответу ->>
Что включает в себя контекст процесса? перейти к ответу ->>
Структура MPI_Request используется для: перейти к ответу ->>
Технология программирования OpenMP расширяет язык программирования за счет: перейти к ответу ->>
Операция изменения переменной цикла index в директиве #pragma omp parallel for может иметь следующие формы: перейти к ответу ->>
В функциях приема сообщений MPI структура MPI_Status используется для: перейти к ответу ->>
В критические секции: перейти к ответу ->>
Какие проблемы могут возникать при использовании симафоров OpenMP? перейти к ответу ->>
Пусть есть система с двумя вычислительными элементами. Известно, что доля последовательного кода составляет 40%. Какое максимальное ускорение можно получить с помощью технологии OpenMP? перейти к ответу ->>
Функцию omp_get_max_threads используют для: перейти к ответу ->>
Функция omp_init_lock применяется для того что бы: перейти к ответу ->>
Пусть написана следующая параллельная программа:
int *a;#pragma omp parallel{…#pragma omp critical= new int [10];…}
Какие проблемы могут наблюдаться при выполнении параллельной программы? перейти к ответу ->>
Вы написали программу с использованием OpenMP. При запуске на 4-ядерной системе оказалось, что загрузка процессора равна 25%. Какова наиболее вероятная причина? перейти к ответу ->>
Пусть написана следующая параллельная программа:
#pragma omp parallel{sum = 0;#pragma omp for for(int i = 0; i < 100; i++)   sum++;}
Какие проблемы могут наблюдаться при выполнении параллельной программы? перейти к ответу ->>