Вариант №5. Отказоустойчивые вычислительные системы (ДВ 3.2)
Состав работы
|
|
Работа представляет собой файл, который можно открыть в программе:
- Microsoft Word
Описание
Контрольная работа
Контрольная работа представляет собой опрос. Список вопросов выбирается по последней цифре пароля по 12 вопросов из 120 каждому студенту (например, если у вас пароль заканчивается на цифру 5, то вы выбираете темы под номерами 5, 15, 25, 35, …, 115).
1. Критерии оценки производительности многопроцессорных вычислительных систем.
2. В каких величинах проводится оценки производительности многопроцессорных вычислительных систем.
3. Какие существуют основные тесты производительности компьютеров?
4. В чем заключаются основные способы достижения параллелизма?
5. В чем могут состоять различия параллельных вычислительных сис-тем?
6. Что положено в основу классификации Флинна?
7. В чем особенность кластерных вычислительных систем?
8. Какие преимущества предоставляет пользователям вычислительных систем с суперкомпьютерным уровнем кластерная архитектура .
9. Оценки времени передачи сообщений по Хокни.
10. Закон Амдала и его следствия.
11. В чем отличие кластерных вычислительных систем от "мэйнфреймов"?
12. Какие вычислительные системы относятся к grid системам?
13. Какие принципы технической реализации вычислительных систем (ВС) относятся к базовым?
14. Каким требованиям удовлетворяют вычислительные системы, основанные на принципах модульности и близкодействия?
15. Какие архитектурные свойства присущи вычислительным системам?
16. Назовите основополагающие принципы в основе параллельных вычислительных систем.
17. Назовите важнейшие свойства архитектуры ВС.
18. Чем достигается децентрализованность управления ВС?
19. Что понимается под масштабируемостью (Scalability) вычислительных систем?
20. Назовите основные виды реконфигурируемость (Programmability) вычислительных систем и их свойства.
21. Этапы разработки параллельных алгоритмов
22. В чем состоит принцип разделения многопроцессорных систем на мультипроцессоры и мультикомпьютеры?
23. Какие классы систем известны для мультипроцессоров?
24. Какое ускорение вычислений может достигаться для процессоров с поддержкой одновременной многопотоковости?
25. Как определяется расписание для распределения вычислений между процессорами?
26. Как определяется время выполнения параллельного алгоритма?
27. Какое расписание является оптимальным?
28. Как определить минимально возможное время решения задачи?
29. Что понимается под паракомпьютером и для чего может оказаться полезным данное понятие?
30. Какие оценки следует использовать в качестве характеристики времени последовательного решения задачи?
31. Как определить минимально возможное время параллельного решения задачи по графу «операнды–операции»?
32. Какие зависимости могут быть получены для времени параллельного решения задачи при увеличении или уменьшения числа используемых процессоров?
33. При каком числе процессоров могут быть получены времена вы-полнения параллельного алгоритма, сопоставимые по порядку с оценками минимально возможного времени решения задачи?
34. Как определяются понятия ускорения и эффективности?
35. Возможно ли достижений сверхлинейного ускорения?
36. В чем состоит противоречивость показателей ускорения и эффек-тивности?
37. Как определяется понятие стоимости вычислений?
38. В чем состоит понятие стоимостно-оптимального алгоритма?
39. В чем заключается проблема распараллеливания последователь-ного алгоритма суммирования числовых значений?
40. Какие основные характеристики используются для оценки топологии сети передачи данных? Приведите значения характеристик для конкретных типов коммуникационных структур (полный граф, линейка, решетка и др.).
41. Какие основные методы применяются при маршрутизации передаваемых данных по сети?
42. В чем состоят основные методы передачи данных? Приведите для этих методов аналитические оценки времени выполнения.
43. Какие операции передачи данных могут быть выделены в качестве основных?
44. В чем состоят алгоритмы выполнения передачи данных от одного процессора всем процессорам сети для топологий кольца, решетки и гиперкуба? Приведите оценки временной трудоемкости для этих алгоритмов.
45. В чем состоят алгоритмы выполнения передачи данных от всех процессоров всем процессорам сети для топологий кольца, решетки и гиперкуба? Приведите оценки временной трудоемкости для этих алгоритмов.
46. Имеют ли подзадачи после масштабирования одинаковую вычислительную и коммуникационную сложность?
47. Зависят ли параметрически правила масштабирования от количества процессоров?
48. Что означает функциональный параллелизм?
49. Какие регулярные структуры базовых подзадач получаются после декомпозиции данных?
50. Какие компьютерные платформы относятся к числу вычислительных систем с общей памятью?
51. Какие подходы используются для разработки параллельных программ?
52. В чем состоят основы технологии OpenMP?
53. В чем состоит важность стандартизации средств разработки параллельных программ?
54. В чем состоят основные преимущества технологии OpenMP?
55. Что понимается под параллельной программой в рамках технологии OpenMP?
56. Что понимается под понятием потока (thread)?
57. Какие проблемы возникают при использовании общих данных в
параллельно выполняемых потоках?
58. Какой формат записи директив OpenMP?
59. В чем состоит назначение директивы parallel?
60. В чем состоят понятия фрагмента, области и секции параллельной программы?
61. Какой минимальный набор директив OpenMP позволяет начать разработку параллельных программ?
62. Как определить время выполнения OpenMP программы?
63. Как осуществляется распараллеливание циклов в OpenMP? Какие условия должны выполняться, чтобы циклы могли быть распараллелены?
64. Какие возможности имеются в OpenMP для управления распреде-лением итераций циклов между потоками?
65. Как определяется порядок выполнения итераций в распараллеливаемых циклах в OpenMP?
66. Какие правила синхронизации вычислений в распараллеливаемых циклах в OpenMP?
67. Как определяются общие и локальные переменные потоков?
68. Что понимается под операцией редукции?
69. Какие способы организации взаимоисключения могут быть ис-пользованы в OpenMP?
70. Что понимается под атомарной (неделимой) операцией?
71. Как определяется критическая секция?
72. Какие операции имеются в OpenMP для переменных семафорного типа (замков)?
73. В каких ситуациях следует применять барьерную синхронизацию?
74. Как осуществляется в OpenMP распараллеливание по задачам (директива sections)?
75. Как определяются однопотоковые участки параллельных фрагментов (директивы single и master)?
76. Как осуществляется синхронизация состояния памяти (директива
flush)?
77. Как используются постоянные локальные переменные потоков (директивы threadprivate и copyin)?
78. Какой минимальный набор функций MPI позволяет начать разработку параллельных программ?
79. Как определить время выполнения MPI программы?
80. В чем различие парных и коллективных операций передачи данных?
81. Какая функция MPI обеспечивает передачу данных от одного процесса всем процессам?
82. Какие режимы передачи данных поддерживаются в MPI?
83. Как организуется неблокирующий обмен данными в MPI?
84. В чем состоит понятие тупика? В каких ситуациях функция одновременного выполнения передачи и приема гарантирует отсутствие тупиковых ситуаций?
85. Какие коллективные операции передачи данных предусмотрены в MPI?
86. Что понимается под производным типом данных в MPI?
87. Какие способы конструирования типов имеются в MPI?
88. Что понимается в MPI под коммуникатором?
89. Что понимается в MPI под виртуальной топологией?
90. Какие виды топологий предусмотрены в MPI?
91. Напишите программу вывода натурального числа в параллельной области всеми нитями; главной нитью; любой нитью.
92. Напишите программу суммирования ряда из n натуральных чисел. Если n<500 программа должна выполняться последовательно, если n=>500 программа должна выполняться параллельно (применение опции if директивы parallel).
93. Напишите программу скалярного произведения двух векторов. При инициализации параллельной области явно укажите количество используемых нитей 4.
94. Напишите программу скалярного произведения двух векторов. При инициализации параллельной области явно укажите количество используемых нитей 4. Вывод результата скалярного произведения произвела главная нить; первая, завершившая вычисления нить.
95. Дан одномерный массив A из n элементов, расположенный в общей памяти. Написать программу подсчет суммы элементов массива A. (Примечание: использование опции reduction директивы parallel).
96. Дан одномерный массив A из n элементов, расположенный в общей памяти. Написать программу определения маскимального и минимального элементов массива A. (Примечание: использование опции reduction директивы parallel).
97. Дан одномерный массив A из n элементов, расположенный в общей памяти. Написать программу, в которой нити с четными номерами выводят на экран четные элементы массива A, а нити с нечетными номерами выводят на экран нечетные элементы массива A. (Примечание: использование опции if директивы parallel).
98. Дан одномерный массив A из n элементов, расположенный в общей памяти. Написать программу подсчет суммы элементов массива A. Если n меньше 100, то программа выполняется последовательно только главной нитью. Если n больше 100, то подсчет суммы выполняется всеми нитями. Если n равно 100, то программа аварийно завершается. (Примечание: использование опций if, reduction директивы parallel).
99. Дан одномерный массив A из n элементов, расположенный в общей памяти. Написать программу подсчет суммы элементов массива A, количество нитей задается опцией num_threads. (Примечание: использование опций num_threads, reduction директивы parallel).
100. Дан одномерный массив A из n элементов, расположенный в общей памяти. Написать программу подсчета количества нулевых элементов массива A. (Примечание: использование опции reduction директив parallel, for (do)).
101–104. Написать и реализовать параллельную программу на 4-х ядерном процессоре умножения квадратной матрицы на вектор при разделении данных по строкам. Размерность массивов N = № пароля *100. Использовать OpenMP.
105–107. Написать и реализовать параллельную программу перемножения квадратных матриц на 4-х ядерном процессоре. Размерность массивов N = № пароля *100. Использовать OpenMP.
108–110. Написать и реализовать программу параллельного решения систем линейных уравнений методом Гаусса на 4-х ядерном процессоре. Размерность массивов N = № пароля *100.Использовать OpenMP.
111–115. Написать программу параллельного решения СЛАУ методом Гаусса. Распределение данных - горизонтальными полосами. Запуск задачи на 8-ми компьютерах. Размерность массивов N = № пароля *100. Использовать MPI.
116–120. Написать программу параллельного решения задачи Дирихле методом Гаусса-Зейделя для 4-х процесcорной ВС. Размерность массивов N = № пароля *100. Использовать MPI.
Контрольная работа представляет собой опрос. Список вопросов выбирается по последней цифре пароля по 12 вопросов из 120 каждому студенту (например, если у вас пароль заканчивается на цифру 5, то вы выбираете темы под номерами 5, 15, 25, 35, …, 115).
1. Критерии оценки производительности многопроцессорных вычислительных систем.
2. В каких величинах проводится оценки производительности многопроцессорных вычислительных систем.
3. Какие существуют основные тесты производительности компьютеров?
4. В чем заключаются основные способы достижения параллелизма?
5. В чем могут состоять различия параллельных вычислительных сис-тем?
6. Что положено в основу классификации Флинна?
7. В чем особенность кластерных вычислительных систем?
8. Какие преимущества предоставляет пользователям вычислительных систем с суперкомпьютерным уровнем кластерная архитектура .
9. Оценки времени передачи сообщений по Хокни.
10. Закон Амдала и его следствия.
11. В чем отличие кластерных вычислительных систем от "мэйнфреймов"?
12. Какие вычислительные системы относятся к grid системам?
13. Какие принципы технической реализации вычислительных систем (ВС) относятся к базовым?
14. Каким требованиям удовлетворяют вычислительные системы, основанные на принципах модульности и близкодействия?
15. Какие архитектурные свойства присущи вычислительным системам?
16. Назовите основополагающие принципы в основе параллельных вычислительных систем.
17. Назовите важнейшие свойства архитектуры ВС.
18. Чем достигается децентрализованность управления ВС?
19. Что понимается под масштабируемостью (Scalability) вычислительных систем?
20. Назовите основные виды реконфигурируемость (Programmability) вычислительных систем и их свойства.
21. Этапы разработки параллельных алгоритмов
22. В чем состоит принцип разделения многопроцессорных систем на мультипроцессоры и мультикомпьютеры?
23. Какие классы систем известны для мультипроцессоров?
24. Какое ускорение вычислений может достигаться для процессоров с поддержкой одновременной многопотоковости?
25. Как определяется расписание для распределения вычислений между процессорами?
26. Как определяется время выполнения параллельного алгоритма?
27. Какое расписание является оптимальным?
28. Как определить минимально возможное время решения задачи?
29. Что понимается под паракомпьютером и для чего может оказаться полезным данное понятие?
30. Какие оценки следует использовать в качестве характеристики времени последовательного решения задачи?
31. Как определить минимально возможное время параллельного решения задачи по графу «операнды–операции»?
32. Какие зависимости могут быть получены для времени параллельного решения задачи при увеличении или уменьшения числа используемых процессоров?
33. При каком числе процессоров могут быть получены времена вы-полнения параллельного алгоритма, сопоставимые по порядку с оценками минимально возможного времени решения задачи?
34. Как определяются понятия ускорения и эффективности?
35. Возможно ли достижений сверхлинейного ускорения?
36. В чем состоит противоречивость показателей ускорения и эффек-тивности?
37. Как определяется понятие стоимости вычислений?
38. В чем состоит понятие стоимостно-оптимального алгоритма?
39. В чем заключается проблема распараллеливания последователь-ного алгоритма суммирования числовых значений?
40. Какие основные характеристики используются для оценки топологии сети передачи данных? Приведите значения характеристик для конкретных типов коммуникационных структур (полный граф, линейка, решетка и др.).
41. Какие основные методы применяются при маршрутизации передаваемых данных по сети?
42. В чем состоят основные методы передачи данных? Приведите для этих методов аналитические оценки времени выполнения.
43. Какие операции передачи данных могут быть выделены в качестве основных?
44. В чем состоят алгоритмы выполнения передачи данных от одного процессора всем процессорам сети для топологий кольца, решетки и гиперкуба? Приведите оценки временной трудоемкости для этих алгоритмов.
45. В чем состоят алгоритмы выполнения передачи данных от всех процессоров всем процессорам сети для топологий кольца, решетки и гиперкуба? Приведите оценки временной трудоемкости для этих алгоритмов.
46. Имеют ли подзадачи после масштабирования одинаковую вычислительную и коммуникационную сложность?
47. Зависят ли параметрически правила масштабирования от количества процессоров?
48. Что означает функциональный параллелизм?
49. Какие регулярные структуры базовых подзадач получаются после декомпозиции данных?
50. Какие компьютерные платформы относятся к числу вычислительных систем с общей памятью?
51. Какие подходы используются для разработки параллельных программ?
52. В чем состоят основы технологии OpenMP?
53. В чем состоит важность стандартизации средств разработки параллельных программ?
54. В чем состоят основные преимущества технологии OpenMP?
55. Что понимается под параллельной программой в рамках технологии OpenMP?
56. Что понимается под понятием потока (thread)?
57. Какие проблемы возникают при использовании общих данных в
параллельно выполняемых потоках?
58. Какой формат записи директив OpenMP?
59. В чем состоит назначение директивы parallel?
60. В чем состоят понятия фрагмента, области и секции параллельной программы?
61. Какой минимальный набор директив OpenMP позволяет начать разработку параллельных программ?
62. Как определить время выполнения OpenMP программы?
63. Как осуществляется распараллеливание циклов в OpenMP? Какие условия должны выполняться, чтобы циклы могли быть распараллелены?
64. Какие возможности имеются в OpenMP для управления распреде-лением итераций циклов между потоками?
65. Как определяется порядок выполнения итераций в распараллеливаемых циклах в OpenMP?
66. Какие правила синхронизации вычислений в распараллеливаемых циклах в OpenMP?
67. Как определяются общие и локальные переменные потоков?
68. Что понимается под операцией редукции?
69. Какие способы организации взаимоисключения могут быть ис-пользованы в OpenMP?
70. Что понимается под атомарной (неделимой) операцией?
71. Как определяется критическая секция?
72. Какие операции имеются в OpenMP для переменных семафорного типа (замков)?
73. В каких ситуациях следует применять барьерную синхронизацию?
74. Как осуществляется в OpenMP распараллеливание по задачам (директива sections)?
75. Как определяются однопотоковые участки параллельных фрагментов (директивы single и master)?
76. Как осуществляется синхронизация состояния памяти (директива
flush)?
77. Как используются постоянные локальные переменные потоков (директивы threadprivate и copyin)?
78. Какой минимальный набор функций MPI позволяет начать разработку параллельных программ?
79. Как определить время выполнения MPI программы?
80. В чем различие парных и коллективных операций передачи данных?
81. Какая функция MPI обеспечивает передачу данных от одного процесса всем процессам?
82. Какие режимы передачи данных поддерживаются в MPI?
83. Как организуется неблокирующий обмен данными в MPI?
84. В чем состоит понятие тупика? В каких ситуациях функция одновременного выполнения передачи и приема гарантирует отсутствие тупиковых ситуаций?
85. Какие коллективные операции передачи данных предусмотрены в MPI?
86. Что понимается под производным типом данных в MPI?
87. Какие способы конструирования типов имеются в MPI?
88. Что понимается в MPI под коммуникатором?
89. Что понимается в MPI под виртуальной топологией?
90. Какие виды топологий предусмотрены в MPI?
91. Напишите программу вывода натурального числа в параллельной области всеми нитями; главной нитью; любой нитью.
92. Напишите программу суммирования ряда из n натуральных чисел. Если n<500 программа должна выполняться последовательно, если n=>500 программа должна выполняться параллельно (применение опции if директивы parallel).
93. Напишите программу скалярного произведения двух векторов. При инициализации параллельной области явно укажите количество используемых нитей 4.
94. Напишите программу скалярного произведения двух векторов. При инициализации параллельной области явно укажите количество используемых нитей 4. Вывод результата скалярного произведения произвела главная нить; первая, завершившая вычисления нить.
95. Дан одномерный массив A из n элементов, расположенный в общей памяти. Написать программу подсчет суммы элементов массива A. (Примечание: использование опции reduction директивы parallel).
96. Дан одномерный массив A из n элементов, расположенный в общей памяти. Написать программу определения маскимального и минимального элементов массива A. (Примечание: использование опции reduction директивы parallel).
97. Дан одномерный массив A из n элементов, расположенный в общей памяти. Написать программу, в которой нити с четными номерами выводят на экран четные элементы массива A, а нити с нечетными номерами выводят на экран нечетные элементы массива A. (Примечание: использование опции if директивы parallel).
98. Дан одномерный массив A из n элементов, расположенный в общей памяти. Написать программу подсчет суммы элементов массива A. Если n меньше 100, то программа выполняется последовательно только главной нитью. Если n больше 100, то подсчет суммы выполняется всеми нитями. Если n равно 100, то программа аварийно завершается. (Примечание: использование опций if, reduction директивы parallel).
99. Дан одномерный массив A из n элементов, расположенный в общей памяти. Написать программу подсчет суммы элементов массива A, количество нитей задается опцией num_threads. (Примечание: использование опций num_threads, reduction директивы parallel).
100. Дан одномерный массив A из n элементов, расположенный в общей памяти. Написать программу подсчета количества нулевых элементов массива A. (Примечание: использование опции reduction директив parallel, for (do)).
101–104. Написать и реализовать параллельную программу на 4-х ядерном процессоре умножения квадратной матрицы на вектор при разделении данных по строкам. Размерность массивов N = № пароля *100. Использовать OpenMP.
105–107. Написать и реализовать параллельную программу перемножения квадратных матриц на 4-х ядерном процессоре. Размерность массивов N = № пароля *100. Использовать OpenMP.
108–110. Написать и реализовать программу параллельного решения систем линейных уравнений методом Гаусса на 4-х ядерном процессоре. Размерность массивов N = № пароля *100.Использовать OpenMP.
111–115. Написать программу параллельного решения СЛАУ методом Гаусса. Распределение данных - горизонтальными полосами. Запуск задачи на 8-ми компьютерах. Размерность массивов N = № пароля *100. Использовать MPI.
116–120. Написать программу параллельного решения задачи Дирихле методом Гаусса-Зейделя для 4-х процесcорной ВС. Размерность массивов N = № пароля *100. Использовать MPI.
Дополнительная информация
Уважаемый студент, дистанционного обучения,
Оценена Ваша работа по предмету: Отказоустойчивые вычислительные системы (ДВ 3.2)
Вид работы: Контрольная работа 1
Оценка:Зачет
Дата оценки: 25.05.2019
Рецензия:Уважаемая
Задорожный Анатолий Филиппович
Оценена Ваша работа по предмету: Отказоустойчивые вычислительные системы (ДВ 3.2)
Вид работы: Контрольная работа 1
Оценка:Зачет
Дата оценки: 25.05.2019
Рецензия:Уважаемая
Задорожный Анатолий Филиппович
Похожие материалы
Отказоустойчивые вычислительные системы
nura
: 15 июня 2019
96. Дан одномерный массив A из n элементов, расположенный в общей памяти. Написать программу определения маскимального и минимального элементов массива A. (Примечание: использование опции reduction директивы parallel).
106. Написать и реализовать параллельную программу перемножения квадратных матриц на 4-х ядерном процессоре. Размерность массивов N = № пароля *100. Использовать OpenMP.
116. Написать программу параллельного решения задачи Дирихле методом Гаусса-Зейделя для 4-х процесcорной ВС.
200 руб.
Контрольная работа по дисциплине: Отказоустойчивые вычислительные системы. Вариант №5
IT-STUDHELP
: 6 ноября 2019
Контрольная работа
5. В чем могут состоять различия параллельных вычислительных систем?
15. Какие архитектурные свойства присущи вычислительным системам?
25. Как определяется расписание для распределения вычислений между процессорами?
35. Возможно ли достижений сверхлинейного ускорения?
45. В чем состоят алгоритмы выполнения передачи данных от всех процессоров всем процессорам сети для топологий кольца, решетки и гиперкуба? Приведите оценки временной трудоемкости для этих алгоритмов.
55
390 руб.
Отказоустойчивые вычислительные системы. Билет №17
Prorabs
: 29 декабря 2019
1. В каких величинах проводится оценки производительности многопроцессорных вычислительных систем?
4. К какому классу в соответствии с систематикой Флинна относятся векторные и векторно-конвейерные ВС?
8. В качестве системообразующего вычислительного модуля в кластерных системах используется....
9. Два или более ПК, объединяемых по топологии «шина» или с помощью коммутатора и являющиеся единым информационно-вычислительным ресурсом, называют ....
200 руб.
Отказоустойчивые вычислительные системы. Лабораторная работа №2
nura
: 12 мая 2019
ЛАБОРОТОРНАЯ №2. СОЗДАНИЕ ПАРАЛЛЕЛЬНЫХ ОБЛАСТЕЙ В OpenMP.
Цель лабораторной работы – рассмотреть Условия выполнения параллельных областей. Распределение выполняемой программой работы между главно нитью и остальными.
2.1.Обзор директив разделения задач
При запуске программы создается процесс и запускается одна нить приложения OpenMP. Первая нить называется главная, она существует на протяжении всего цикла работы программы, в литературе не редко главная нить называется нить-мастер (master threa
550 руб.
Отказоустойчивые вычислительные системы. Лабораторная работа №1
nura
: 12 мая 2019
ЛАБОРОТОРНАЯ №1. ИЗУЧЕНИЕ РАБОТЫ С НИТЯМИ в OpenMP.
Цель лабораторной работы – знакомство с библиотекой OpenMP и получение первичных навыков параллельного программирования.
1. Создание приложения с применением OpenMP
1. Запустите Microsoft Visual Studio 2010.
2. Выбирите пункт в меню File -> New -> Project, или нажмите Ctrl+Shift+N
3. В окне New Project в раскрывающемся списке Visual C++ выбирите Win32. В подокне Templates установите Win32 Console Application. Введите имя (Name), например, examp
300 руб.
Отказоустойчивые вычислительные системы. Лабораторная работа №3
nura
: 12 мая 2019
ЛАБОРАТОРНАЯ №3. ПАРАЛЛЕЛЬНЫЕ ЦИКЛЫ В OpenMP
3.1.Опции директивы parallel
Директива parallel – инициализирует параллельную область и создает группу из OMP_NUM_THREADS нитей. Определение и задание переменной OMP_NUM_THREADS будет дано в следующем параграфе.
Синтаксис оператора. Язык Си
#pragma omp parallel [опция[[,] опция]...]
Возможные опции:
if(условие) – выполнение параллельной области по условию. Вхождение в параллельную область осуществляется только при выполнении некоторого условия.
550 руб.
Зачет по дисциплине: Отказоустойчивые вычислительные системы. Билет № 2
IT-STUDHELP
: 18 апреля 2021
Билет № 2
2. Критериями оценки эффективности многопроцессорных вычислительных систем являются:
Масштабируемость, Отказоустойчивость, Производительность.
Многопроцессорность, Надежность, Вычислительная мощность.
Надежность, Производительность, Мультипроцессность.
4. К какому классу в соответствии с систематикой Флинна относятся векторные и векторно-конвейерные ВС?
SIMD.
SISD.
MISD.
MIMD.
6. Какие преимущества предоставляет пользователям вычислительных систем с суперкомпьютерным уровнем кластер
400 руб.
Зачет по дисциплине: Отказоустойчивые вычислительные системы. Билет №18
IT-STUDHELP
: 7 февраля 2020
Билет No18
2. Критериями оценки эффективности многопроцессорных вычислительных систем являются:
Масштабируемость, Отказоустойчивость, Производительность.
Многопроцессорность, Надежность, Вычислительная мощность.
Надежность, Производительность, Мультипроцессность.
5. Масштабируемость вычислительных систем – это
возможность пропорционального увеличения общей производительности системы путем добавления соответствующих аппаратных ресурсов;
масштабное увеличение мощности за определенный промежут
400 руб.
Другие работы
ММА/ИДО Иностранный язык в профессиональной сфере (ЛТМ) Тест 20 из 20 баллов 2024 год
mosintacd
: 28 июня 2024
ММА/ИДО Иностранный язык в профессиональной сфере (ЛТМ) Тест 20 из 20 баллов 2024 год
Московская международная академия Институт дистанционного образования Тест оценка ОТЛИЧНО
2024 год
Ответы на 20 вопросов
Результат – 100 баллов
С вопросами вы можете ознакомиться до покупки
ВОПРОСЫ:
1. We have … to an agreement
2. Our senses are … a great role in non-verbal communication
3. Saving time at business communication leads to … results in work
4. Conducting negotiations with foreigners we shoul
150 руб.
Задание №2. Методы управления образовательными учреждениями
studypro
: 13 октября 2016
Практическое задание 2
Задание 1. Опишите по одному примеру использования каждого из методов управления в Вашей профессиональной деятельности.
Задание 2. Приняв на работу нового сотрудника, Вы надеялись на более эффективную работу, но в результате разочарованы, так как он не соответствует одному из важнейших качеств менеджера - самодисциплине. Он не обязателен, не собран, не умеет отказывать и т.д.. Но, тем не менее, он отличный профессионал в своей деятельности. Какими методами управления Вы во
200 руб.
Особенности бюджетного финансирования
Aronitue9
: 24 августа 2012
Содержание:
Введение
Теоретические основы бюджетного финансирования
Понятие и сущность бюджетного финансирования
Характеристика основных форм бюджетного финансирования
Анализ бюджетного финансирования образования
Понятие и источники бюджетного финансирования образования
Проблемы бюджетного финансирования образования
Основные направления совершенствования бюджетного финансирования образования
Заключение
Список использованный литературы
Цель курсовой работы – исследовать особенности бюджетного фин
20 руб.
Программирование (часть 1-я). Зачёт. Билет №2
sibsutisru
: 3 сентября 2021
ЗАЧЕТ по дисциплине “Программирование (часть 1)”
Билет 2
Определить значение переменной y после работы следующего фрагмента программы:
a = 3; b = 2 * a – 10; x = 0; y = 2 * b + a;
if ( b > y ) or ( 2 * b < y + a ) ) then begin x = b – y; y = x + 4 end;
if ( a + b < 0 ) and ( y + x > 2 ) ) then begin x = x + y; y = x – 2 end;
200 руб.