Программирование графических процессоров Лабораторная 1

Состав работы

material.view.file_icon
material.view.file_icon
material.view.file_icon lab1.docx
material.view.file_icon
material.view.file_icon kernel.cu
material.view.file_icon
material.view.file_icon kernel.cu
Работа представляет собой rar архив с файлами (распаковать онлайн), которые открываются в программах:
  • Microsoft Word

Описание

Задание
1. Прочитайте главы теоретического материала под названиями "Отличия GPU от CPU", "Первая программа на CUDA C", "Алгоритм сложения двух векторов на GPU", "События, обработка ошибок и получение информации об устройстве", "Глобальная, локальная и константная память". Ответьте на контрольные вопросы и выполните контрольные задания, предложенные в конце этих глав (ответы на контрольные вопросы не нужно включать в отчёт по лабораторной работе).
2. Реализуйте параллельный алгоритм умножения AxV, где A – матрица, V – вектор.
3. Реализуйте параллельный алгоритм умножения VxA, где A – матрица, V – вектор.
4. Постройте графики зависимости времени выполнения алгоритма от размера матрицы и вектора (Размеры матрицы 1000x500, 1000x1000, 1500x1000, 2000x1000, 2000x1500, 2500x1500, 2500x2000).
5. Прочитайте главу "Профилирование программ", ответьте на контрольные вопросы в конце главы (ответы на контрольные вопросы не нужно включать в отчёт по лабораторной работе).
6. Проанализируйте, реализованные алгоритмы при помощи утилиты nvprof на эффективность доступа к глобальной памяти.
Методические указания по выполнению лабораторной работы
Для того чтобы распараллелить алгоритм AxV взглянем на код последовательного алгоритма. Пусть есть матрица A размером [NxM], где N – количество строк, M – количество столбцов. И вектор V размером M (для умножения нужно чтобы размер вектора совпадал с количеством столбцов в матрице). Результатом такого умножения будет вектор C размера N. Ниже представлен код алгоритма:
for(int i = 0; i < N; ++i) {
for(int j = 0; j < M) {
C[i] += A[i][j] * V[j];
}
}
Для того чтобы получить i-ый элемент результирующего вектора нужно взять i-ую строку матрицы A, все её элементы попарно умножить на элементы вектора и результат умножений сложить.
Теперь нужно выделить части не зависящие друг от друга. Если проанализировать работу алгоритма, то можно увидеть, что вычисление C[i] не зависит от вычислений, проводимых для расчёта других элементов результирующего вектора C. Тогда можно запустить код
for(int j = 0; j < M) {
C[i] += A[i][j] * V[j];
}
на разных вычислителях, а за индекс i взять порядковый номер вычислителя. На GPU таким вычислителем будет нить, а код нужно оформить в функцию-ядро. Важно помнить, что нити не существуют сами по себе, они группируются в блоки, а блоки вмещают не более 1024 нити. Но блоков можно запустить очень большое количество, поэтому будем считать, что их количество не ограничено и их нужно запустить достаточно, чтобы у каждой строки матрицы была своя нить. Количество блоков, которое понадобится можно вычислить по формуле N/THREAD_PER_BLOCK + 1, где N размер данных (в нашем случае это количество строк в матрице), а THREADS_PER_BLOCK – размер блока (если не знаете какой размер выбрать, возьмите 128. Важно чтобы размер был кратен 32). Единица прибавляется в конце т.к. если N не кратно размеру блока, то количество блоков будет на 1 меньше чем нужно, потому что при использовании целочисленного деления результат округлится до ближайшего меньшего целого значения. Из-за этого останется "хвост", который не распределён по нитям, но нам точно известно, что он меньше размера блока, поэтому добавляем ещё один блок для вычислений над этими данными. На рисунке 1 изображена схема распределения вычислений по нитям и блокам.

Рис. 1 – умножение матрицы на вектор
На рисунке видно, что каждая нить работает только с одной строкой и вектором, а результатом её работы является один элемент. После того как все нити отработают результирующий вектор будет полностью вычислен.
Ещё одна проблема – нити имеют свой номер только внутри блока. Чтобы вычислить глобальный номер нити, который будет браться вместо индекса i нужно размер блока умножить на номер блока и прибавить к нему номер нити в блоке (если забыли, где хранятся все эти величины просмотрите ещё раз теоретический материал).
Теперь опишите функцию-ядро – функцию которая будет исполняться каждой нитью GPU. Она должна принимать на вход адрес матрицы A, адрес вектора V, адрес результирующего вектора C, вычислять глобальный номер нити и в цикле вычислять элемент результирующего вектора по алгоритму, описанному выше, номер которого соответствует глобальному номеру нити.
В функции main выделите на хосте память под матрицу, вектор V и результирующий вектор и проинициализируйте их целыми числами (результирующий проинициализируйте нулями). Затем выделите память под матрицу, вектор и результирующий вектор на устройстве. Матрицу на GPU расположите в линейной памяти и используйте для её выделения функцию cudaMallocPitch. В выделенную на устройстве память скопируйте данные с хоста при помощи функции cudaMemcpy2D. Для выделения памяти на устройстве под векторы и копирования данных на устройство используйте cudaMalloc и cudaMemcpy соответственно.
После этого запустите функцию-ядро для вычислений и передайте в качестве параметра запуска размер блока и количество блоков, а в качестве параметров функции передайте адреса выделенной памяти на устройстве. После этого на хосте вызовите функцию cudaDeviceSynchronize, которая будет ожидать завершения работы всех исполняющихся нитей. Затем скопируйте при помощи функции cudaMemcpy результирующий вектор из памяти устройства в память хоста. Проверьте правильно ли сделаны расчёты.
Добавьте к коду программы замеры времени по аналогии из главы "События, обработка ошибок и получение информации об устройстве" и проведите эксперименты с указанными в задании размерами матрицы и вектора.
Главный показатель эффективности доступа к памяти – высокая пропускная способность и высокий процент попаданий в кэш (если используется кэширующий доступ к памяти). Чтобы проанализировать программу на эффективность обращения к глобальной памяти воспользуйтесь консольной утилитой nvprof и следующими метриками:
dram_utilization – уровень пропускной способности dram относительно пиковой пропускной способности (от 0 до 10).
dram_read_throughput – пропускная способность считывания из dram.
dram_write_throughput – пропускная способность записи в dram.
global_hit_rate – процент попаданий в L1/texture кэш.
gld_throughput – пропускная способность считывания из глобальной памяти
gld_reqested_throughput – эффективная пропускная способность считываний из глобальной памяти.
gld_efficiency – эффективность считываний из глобальной памяти – отношение эффективной пропускной способности считываний из глобальной памяти к общей пропускной способности считываний из глобальной памяти.
gst_throughput – пропускная способность записи в глобальную память.
gst_requested_throughput – эффективная пропускная способность записи в глобальную память.
gst_efficiency – эффективность записи в глобальную – отношение gst_requested_throughput к gst_throughput.
Проанализируйте и объясните полученные результаты.
По аналогии с реализацией параллельного алгоритма умножения матрицы на вектор реализуйте параллельный алгоритм умножения вектора на матрицу. Схема доступа нитей и блоков к данным показана на рисунке 2.

Рис. 2 – умножение вектора на матрицу
Теперь каждая нить обращается к столбцу матрицы, а не к строке.

Дополнительная информация

зачет
Программирование графических процессоров. Лабораторная работа №1
Тема: Работа с глобальной памятью Задание 1. Прочитайте главы теоретического материала под названиями "Отличия GPU от CPU", "Первая программа на CUDA C", "Алгоритм сложения двух векторов на GPU", "События, обработка ошибок и получение информации об устройстве", "Глобальная, локальная и константная память". Ответьте на контрольные вопросы и выполните контрольные задания, предложенные в конце этих глав (ответы на контрольные вопросы не нужно включать в отчёт по лабораторной работе). 2. Реализуйте
User pleze : 11 сентября 2021
300 руб.
Программирование графических процессоров - лабораторные работы 1-7
Список работ: - Лабораторная работа 1 - Первая программа - Лабораторная работа 2 - nvprof - Лабораторная работа 3 - cuda-memcheck - Лабораторная работа 4 - Обработка ошибок - Лабораторная работа 5 - Алгоритм Якоби - Лабораторная работа 6 - События - Лабораторная работа 7 - Простые потоки в CUDA Запуск Приложенные исполняемые файлы скомилированны под запуск на Linux-машине на кластере СибГУТИ. Если необходимо использовать на другой ОС, нужно перекомпилировать программы. Важно: начиная
User Dmitry17 : 18 ноября 2023
700 руб.
Программирование графических процессоров. Лабораторная работа №1. Вариант общий
Тема: Работа с глобальной памятью Задание 1. Прочитайте главы теоретического материала под названиями "Отличия GPU от CPU", "Первая программа на CUDA C", "Алгоритм сложения двух векторов на GPU", "События, обработка ошибок и получение информации об устройстве", "Глобальная, локальная и константная память". Ответьте на контрольные вопросы и выполните контрольные задания, предложенные в конце этих глав (ответы на контрольные вопросы не нужно включать в отчёт по лабораторной работе). 2. Реализуйте
User Damovoy : 15 апреля 2021
390 руб.
Программирование графических процессоров. Лабораторная работа №1. Вариант общий
Лабораторные работы №1-3 по курсу «Программирование графических процессоров»
Лабораторная работа №1 по курсу «Программирование графических процессоров» на тему «Работа с глобальной памятью» Задание 1. Прочитайте главы теоретического материала под названиями "Отличия GPU от CPU", "Первая программа на CUDAC", "Алгоритм сложения двух векторов на GPU", "События, обработка ошибок и получение информации об устройстве", "Глобальная, локальная и константная память". Ответьте на контрольные вопросы и выполните контрольные за-дания, предложенные в конце этих глав (ответы на кон
User Леший : 23 апреля 2022
777 руб.
Лабораторные работы №№1-3 по дисциплине: Программирование графических процессоров
Лабораторная работа 1 Задание 1. Прочитайте главы теоретического материала под названиями "Отличия GPU от CPU", "Первая программа на CUDAC", "Алгоритм сложения двух векторов на GPU", "События, обработка ошибок и получение ин-формации об устройстве", "Глобальная, локальная и константная память". Ответьте на контрольные вопросы и выполните контрольные задания, предложенные в конце этих глав (ответы на контрольные вопросы не нужно включать в отчёт по лабораторной работе). 2. Реализуйте параллельны
User IT-STUDHELP : 3 декабря 2021
900 руб.
promo
Лабораторная работа 1 Программирование графических процессоров Все варианты 2023 год
2023 год СибГУТИ Сибирский государственный университет телекоммуникаций и информатики Милешко Антон Владимирович Тема: Лабораторная работа 1 Программирование графических процессоров Все варианты 2023 год Задания Лабораторная работа №1 по курсу «Программирование графических процессоров» на тему «Работа с глобальной памятью» Выполнение лабораторной работы поможет получить навыки, требующиеся для выполнения первого и третьего заданий контрольной работы. Задание 1. Прочитайте главы теоретического
User SibSUTTI : 1 сентября 2023
198 руб.
promo
Лабораторные работы №1-3 по дисциплине: Программирование графических процессоров. Вариант общий
Лабораторная работа №1 «Работа с глобальной памятью» Задание лабораторной работы 1. Прочитайте главы теоретического материала под названиями "Отличия GPU от CPU", "Первая программа на CUDAC", "Алгоритм сложения двух векторов на GPU", "События, обработка ошибок и получение информации об устройстве", "Глобальная, локальная и константная память". Ответьте на контрольные вопросы и выполните контрольные задания, предложенные в конце этих глав (ответы на контрольные вопросы не нужно включать в отчёт
User Roma967 : 20 июля 2024
900 руб.
promo
Лабораторные работы №1-3 по курсу «Программирование графических процессоров». Вариант общий
Лабораторная работа №1 по курсу «Программирование графических процессоров» на тему «Работа с глобальной памятью» Задание Задание 1. Прочитайте главы теоретического материала под названиями "Отличия GPU от CPU", "Первая программа на CUDA C", "Алгоритм сложения двух векторов на GPU", "События, обработка ошибок и получение информации об устройстве", "Глобальная, локальная и константная память". Ответьте на контрольные вопросы и выполните контрольные задания, предложенные в конце этих глав (ответы н
User teacher-sib : 13 июня 2022
600 руб.
promo
Эконометрика. Экзаменационная Работа. Вариант №14
Эконометрика. Экзамен. Вариант 14 Изучается зависимость цены на некоторый товар длительного пользования в магазинах не маленького города. Имеются данные о цене товара в 120 магазинах, а также такая дополнительная информация, как: · Цена товара в соседних магазинах (оценена экспертами-маркетологами по ближайшим 5 магазинам, в которых продается такой же товар); · Расстояние от магазина до ближайшей станции метро (условная дистанция до ближайшей станции метро по пешим маршрутам, сч
100 руб.
Эконометрика. Экзаменационная Работа. Вариант №14
Центрифуга ОГШ-501У-01. Блок приготовления раствора-Оборудование для бурения нефтяных и газовых скважин
Центрифуга ОГШ-501У-01- осадительная горизонтальная непрерывного действия со шнековой выгрузкой осадка. Предназначена для обезвоживания осадков сточных вод и для разделения суспензий высокой и средней дисперсности с твердой фазой, не содержащей абразивных примесей, и концентрацией Т:Ж в пределах 1:4-1:10, при температуре до 80 град. Центрифуга ОГШ-501У-01 Фактор разделения(при максимальной допустимой частоте вращения ротора) 2515 Индекс производительности, не менее( при максимальной частоте вра
500 руб.
Центрифуга ОГШ-501У-01. Блок приготовления раствора-Оборудование для бурения нефтяных и газовых скважин
Контрольная работа №2 по дисциплине: Английский язык. Вариант №2
Контрольная работа по дисциплине: Английский язык. Вариант №2 Перевести тексты на русский язык. GSM end-user sets A range of end-user sets for GSM is available from Alcatel. V Alcatel 9109 НА (Alcatel GSM handheld terminal): This is a small pocket size/ light weight telephone developed for use in the GSM environment. The batteries support a full hour of continuous talk time or 1 2 hours of standby time. Alcatel 9109 НА V Alcatel 9109 DA (Alcatel GSM transmobile): The Alcatel 9109 DA is a GSM
User Елена22 : 29 октября 2013
160 руб.
promo
Порядок ввоза в Украину автотранспортных средств
Зміст 1. Розділ I Загальні положення 2. Розділ II Порядок митного оформлення транспортних засобів, номерних вузлів та агрегатів, що ввозяться (пересилаються) громадянами в Україну 3. Розділ III Порядок митного оформлення транспортних засобів, що вивозяться громадянами з України 4. Розділ IV Порядок митного оформлення придбаних транспортних засобів, номерних вузлів та агрегатів, що переміщуються громадянами через митну територію України транзитом 5. Розділ V Порядок митного оформле
User Elfa254 : 2 августа 2013
up Наверх