Студопедия
Случайная страница | ТОМ-1 | ТОМ-2 | ТОМ-3
АвтомобилиАстрономияБиологияГеографияДом и садДругие языкиДругоеИнформатика
ИсторияКультураЛитератураЛогикаМатематикаМедицинаМеталлургияМеханика
ОбразованиеОхрана трудаПедагогикаПолитикаПравоПсихологияРелигияРиторика
СоциологияСпортСтроительствоТехнологияТуризмФизикаФилософияФинансы
ХимияЧерчениеЭкологияЭкономикаЭлектроника

Буферизованный

 

49. Для двухточечных обменов MPI приняты соглашения о префиксах в именах подпрограмм передачи сообщений MPI_[ I ][R, S, B]Send (…). Какой режим обмена будет выполняться при отсутствии префиксов?

Стандартный;

 

50. Перечислите в алфавитном порядке реализованные разновидности подпрограмм приема сообщений в MPI.

Блокирующий. 1)неблокирующий

 

51. Стандартную блокирующую передачу выполняет MPI_Send(*buf, count, datatype,<? >, tag, comm). Что записывается на месте четвертого параметра?

Ранг проц-получателя;

 

52. Стандартный блокирующий прием выполняет MPI_Recv(*buf, count, datatype,<? >, tag, comm,*out). Что записывается на месте четвертого параметра?

Ранг проц-отправителя.

53. Вызов подпрограммы MPI_Get_count(*status, datatype, *count) позволяет определить _____ полученного сообщения

Размер сообщения;

54. Инициализация MPI осуществляется подпрограммой MPI_Init(&argc, &argv). Аргументы требуются в том случае, если параллельная программа использует язык _.

С

55. Стандартную неблокирующую передачу выполняет MPI_Isend(*buf, count, <? >, rank, tag, comm). Что записать на месте <? > для типа C/C++signed long int ”?

MPI_LONG.

56. Почти в любой параллельной программе для MPI можно обнаружить минимум 6 следующих подпрограмм. Расставьте их в непротиворечивой последовательности.

1)MPI_Init(...);4)MPI_Comm_size(…);3)MPI_Comm_rank(…);5)MPI_Send(…); 6)MPI_Recv(…).2)MPI_Finalize(…);

 

57. Коллективный обмен в параллельной вычислительной системе с MPI характеризуется тем, что один процесс передает данные многим процессам и наоборот, если для них организована специальная область _

Взаимодействия

 

58. По определению MPI коллективный обмен ______ взаимодействовать с двухточечным обменом

Не может;

 

59. Как в MPI ограничивается область взаимодействия заданного множества процессов при их коллективном обмене сообщениями?

Именами коммуник-ов; или 5

 

60. В MPI широковещательная рассылка выполняется путем вызова подпрограммы MPI_Bcast(*buf, count, datatype, root, comm). Что представляет собою параметр root?

Ранг_рассылающего;

 

61. Синхронизация процессов при коллективном обмене осуществляется вызовом MPI_Barrier(comm). Она каждый процесс ____ до приема всех сообщений

Блокирует;

 

62. Вызов коллектиных операций обмена MPI_Bcast(...) и MPI_Barrier (...) должны произойти в ___.

Каждом_процессах;или 5

 

63. При широковещательной рассылке подпрограмма MPI_Bcast(...) вызывается взаимодействующими процессами. Параметры ее для каждого опроцесса ____


Дата добавления: 2015-08-03; просмотров: 55 | Нарушение авторских прав


<== предыдущая страница | следующая страница ==>
MPI_Group| Грамматика

mybiblioteka.su - 2015-2024 год. (0.007 сек.)