Основы нейронных сетей - 5 семестр - тест с ответами Синергия - 2023
Состав работы
|
|
Работа представляет собой файл, который можно открыть в программе:
- Microsoft Word
Описание
Основы нейронных сетей - 5 семестр - тест с ответами Синергия - 2023
22 вопроса с ответами.
Сдано на 90 баллов в 2022 году.
22 вопроса с ответами.
Сдано на 90 баллов в 2022 году.
Дополнительная информация
1. Нейронные сети бывают следующих видов:
*Полносвязные и рекуррентные
*Рекуррентные, сверточные и трансформеры
*Рекуррентные, сверточные, полносвязные и трансформеры
2. Задача классификации – это задача
*Обучения с учителем
*Обучения без учителя
*Обучения с подкреплением
3. Обучение нейронной сети – это применение алгоритма оптимизации для решения задачи
*Минимизации средней нормы градиента эмпирического риска по весам модели
*Минимизации эмпирического риска
*Минимизации средней нормы матриц весов модели
4. Отметьте верные высказывания о функциях активации:
*Функция активации сигмоида лежит в диапазоне [0,1] и может быть интерпретирована как
вероятность, а потому часто используется для решения задач бинарной классификации.
Функция ReLU - кусочно-линейная
*Функция Leacky ReLU - всюду дифференцируема. Популярная функция активации гиперболический тангенс может быть использована, как решающая функция для задачи
регрессии. Производная сигмоидальной функции не выражается аналитически через значение самой функции в данной точке
* Все функции активации взаимозаменяемы вследствие того, что имеют одну и ту же область значений и область определения
5. Идея Momentum состоит в:
*Вычислении градиента в точке, к которой алгоритм должен сойтись на текущем шаге,
согласно посчитанному моментному члену, а не в той точке, откуда алгоритм производит шаг
*Использовании идеи физической инерции посредством добавления моментных членов,
"скоростей"
*приближенном, а значит - более быстром ("моментальном") вычислении градиентов в текущей
6. Нейронные сети, наиболее часто применяющиеся в CV – это
*Полносвязные
*Сверточные
*Рекуррентные
7. Задачу машинного обучения можно представить в виде последовательности выполнения действий по выбору оптимальной решающей функции f из
многопараметрического семейства F. Задача обучения сводится к задаче оптимизации на этапе:
*Выбора семейства F
*Оценки качества выбранной функции f из семейства F
*Поиска наилучшей функции из семейства F
8. Производная сигмоиды выражается через саму сигмоиду аналитически, как
*sigm’ = sigm(1 - sigm)
*sigm’ = 5sigm^(5)
*sigm’ = 100sigm/sin(sigm)
9. Метод подбора адаптированного learning rate на основе оценки исторических градиентов:
*Nesterov Momentum
*RMSProp
*Adagrad
10. При прямом проходе через Feed Forward Neural Network:
*Происходит обновление весов модели на основе градиентов, посчитанных на предыдущей итерации
*Происходит выстраивание архитектуры модели посредством подбора числа слоев и их размеров
+*Сигнал передается посредством последовательного матричного умножения и
применениянелинейных функций активации
11. Архитектура полносвязной нейронные сети основана на идее
*обобщения низкоуровневых признаков и генерирования на их основе более высокоуровневых
*Построения разделяющей гиперплоскости
*Минимизации лосс-функции без использования градиентных методов
12. Начальная инициализация весов нейросети:
*Должна быть константной для того, чтобы результаты обучения нейросети на одной и той же трейнинговой выборке были воспроизводимыми
*Должна быть случайной для того, чтобы модель могла обучиться, не зануляя градиенты
на определенном шаге, причем такой, что дисперсия сигнала не будет изменяться при
проходечерез слои нейросети.
*Может быть любой
13. Лучший способ борьбы с переобучением:
*Изменение архитектуры модели
*Регуляризации
*Увеличение количества данных
14. Наиболее популярный на текущий момент метод оптимизации, основанный на идее использования двух моментных членов, предложенный в 2015 году:
*ADAM
*Adagrad
*Adadelta
15. Обучение с учителем характеризуется
*Целью обучить агента принимать оптимальные решения в среде
* Отсутствием размеченной выборки
*Наличием размеченной выборки
16. Градиентные методы оптимизации
*Представляют собой итерационные алгоритмы
*Аналитически ищут решение задачи оптимизации
*Вопреки названию, не используют градиенты
17. Условия Каруша-Куна-Таккера применимы для решения:
*Любой задачи оптимизации
*Задачи выпуклой оптимизации
*Задачи оптимизации произвольной функции на выпуклом множестве Q
18. Все описанные в лекции алгоритмы обладают общим свойством. Каким?
*Для всех требуется вычисление матрицы Гессе оптимизируемой функции
*Для всех требуется вычисление градиентов оптимизированной функции
*Для всех требуется подсчет значения оптимизируемой функции в данной точке
19. Функции активации в нейронных сетях:
*Нелинейны (глобально) и вносят неоднородность в сигнал при прямом проходе
*Линейны и нужны для проверки работоспособности модели
*Активируют нейросеть в разных режимах работы
20. Переобучение – это эффект, возникающий при
*Излишней сложности модели по отношению к сложности обучающей выборки, из-за
чегопроисходит “заучивание” данных
*Слишком долгом обучении модели, из-за чего она теряет свою предсказательную способность вследствие увеличения энтропии весов
*Усталости специалиста по машинному обучению от того, что его модели слишком долго учатся
21. Алгоритм Backpropagation:
*Состоит в случайном подборе весов модели до тех пор, пока не будет достигнут оптимальный набор параметров, минимизирующий ошибку
*Используется только для оптимизации полносвязных нейросетей
*Последовательном вычислении градиентов по весам модели, начиная с последнего слоя, по
предактивациям соответствующего слоя и градиентам по весам следующего
22. Функции активации в нейронных сетях:
*Нелинейны (глобально) и вносят неоднородность в сигнал при прямом проходе
*Линейны и нужны для проверки работоспособности модели
*Активируют нейросеть в разных режимах работы
*Полносвязные и рекуррентные
*Рекуррентные, сверточные и трансформеры
*Рекуррентные, сверточные, полносвязные и трансформеры
2. Задача классификации – это задача
*Обучения с учителем
*Обучения без учителя
*Обучения с подкреплением
3. Обучение нейронной сети – это применение алгоритма оптимизации для решения задачи
*Минимизации средней нормы градиента эмпирического риска по весам модели
*Минимизации эмпирического риска
*Минимизации средней нормы матриц весов модели
4. Отметьте верные высказывания о функциях активации:
*Функция активации сигмоида лежит в диапазоне [0,1] и может быть интерпретирована как
вероятность, а потому часто используется для решения задач бинарной классификации.
Функция ReLU - кусочно-линейная
*Функция Leacky ReLU - всюду дифференцируема. Популярная функция активации гиперболический тангенс может быть использована, как решающая функция для задачи
регрессии. Производная сигмоидальной функции не выражается аналитически через значение самой функции в данной точке
* Все функции активации взаимозаменяемы вследствие того, что имеют одну и ту же область значений и область определения
5. Идея Momentum состоит в:
*Вычислении градиента в точке, к которой алгоритм должен сойтись на текущем шаге,
согласно посчитанному моментному члену, а не в той точке, откуда алгоритм производит шаг
*Использовании идеи физической инерции посредством добавления моментных членов,
"скоростей"
*приближенном, а значит - более быстром ("моментальном") вычислении градиентов в текущей
6. Нейронные сети, наиболее часто применяющиеся в CV – это
*Полносвязные
*Сверточные
*Рекуррентные
7. Задачу машинного обучения можно представить в виде последовательности выполнения действий по выбору оптимальной решающей функции f из
многопараметрического семейства F. Задача обучения сводится к задаче оптимизации на этапе:
*Выбора семейства F
*Оценки качества выбранной функции f из семейства F
*Поиска наилучшей функции из семейства F
8. Производная сигмоиды выражается через саму сигмоиду аналитически, как
*sigm’ = sigm(1 - sigm)
*sigm’ = 5sigm^(5)
*sigm’ = 100sigm/sin(sigm)
9. Метод подбора адаптированного learning rate на основе оценки исторических градиентов:
*Nesterov Momentum
*RMSProp
*Adagrad
10. При прямом проходе через Feed Forward Neural Network:
*Происходит обновление весов модели на основе градиентов, посчитанных на предыдущей итерации
*Происходит выстраивание архитектуры модели посредством подбора числа слоев и их размеров
+*Сигнал передается посредством последовательного матричного умножения и
применениянелинейных функций активации
11. Архитектура полносвязной нейронные сети основана на идее
*обобщения низкоуровневых признаков и генерирования на их основе более высокоуровневых
*Построения разделяющей гиперплоскости
*Минимизации лосс-функции без использования градиентных методов
12. Начальная инициализация весов нейросети:
*Должна быть константной для того, чтобы результаты обучения нейросети на одной и той же трейнинговой выборке были воспроизводимыми
*Должна быть случайной для того, чтобы модель могла обучиться, не зануляя градиенты
на определенном шаге, причем такой, что дисперсия сигнала не будет изменяться при
проходечерез слои нейросети.
*Может быть любой
13. Лучший способ борьбы с переобучением:
*Изменение архитектуры модели
*Регуляризации
*Увеличение количества данных
14. Наиболее популярный на текущий момент метод оптимизации, основанный на идее использования двух моментных членов, предложенный в 2015 году:
*ADAM
*Adagrad
*Adadelta
15. Обучение с учителем характеризуется
*Целью обучить агента принимать оптимальные решения в среде
* Отсутствием размеченной выборки
*Наличием размеченной выборки
16. Градиентные методы оптимизации
*Представляют собой итерационные алгоритмы
*Аналитически ищут решение задачи оптимизации
*Вопреки названию, не используют градиенты
17. Условия Каруша-Куна-Таккера применимы для решения:
*Любой задачи оптимизации
*Задачи выпуклой оптимизации
*Задачи оптимизации произвольной функции на выпуклом множестве Q
18. Все описанные в лекции алгоритмы обладают общим свойством. Каким?
*Для всех требуется вычисление матрицы Гессе оптимизируемой функции
*Для всех требуется вычисление градиентов оптимизированной функции
*Для всех требуется подсчет значения оптимизируемой функции в данной точке
19. Функции активации в нейронных сетях:
*Нелинейны (глобально) и вносят неоднородность в сигнал при прямом проходе
*Линейны и нужны для проверки работоспособности модели
*Активируют нейросеть в разных режимах работы
20. Переобучение – это эффект, возникающий при
*Излишней сложности модели по отношению к сложности обучающей выборки, из-за
чегопроисходит “заучивание” данных
*Слишком долгом обучении модели, из-за чего она теряет свою предсказательную способность вследствие увеличения энтропии весов
*Усталости специалиста по машинному обучению от того, что его модели слишком долго учатся
21. Алгоритм Backpropagation:
*Состоит в случайном подборе весов модели до тех пор, пока не будет достигнут оптимальный набор параметров, минимизирующий ошибку
*Используется только для оптимизации полносвязных нейросетей
*Последовательном вычислении градиентов по весам модели, начиная с последнего слоя, по
предактивациям соответствующего слоя и градиентам по весам следующего
22. Функции активации в нейронных сетях:
*Нелинейны (глобально) и вносят неоднородность в сигнал при прямом проходе
*Линейны и нужны для проверки работоспособности модели
*Активируют нейросеть в разных режимах работы
Похожие материалы
Программирование на С++ - тест с ответами - Синергия - 2023
StudentHelp
: 20 ноября 2023
Программирование на С++ - тест с ответами - Синергия - 2023.
40 вопросов с ответами.
Работа содержит zip архив в котором содержатся скриншоты вопросов и также Word документ с ответами.
Работа сдана на 95 баллов(отлично) в 2023 году.
Работа является оригиналов ( включая скриншоты )
390 руб.
Этнопсихология - тест с ответами Синергия - 2023
StudentHelp
: 7 февраля 2023
Этнопсихология - тест с ответами Синергия - 2023
320 вопросов с ответами (Большая коллекция ответов).
Сдано в 2022 году на 100 баллов.
При покупке проверяйте пожалуйста интересующие вас вопросы.
390 руб.
Web-разработка - тест с ответами Синергия - 2023
StudentHelp
: 18 марта 2023
Web-разработка - тест с ответами Синергия - 2023
Все 27 вопросов с ответами которые есть в тесте.
Сдано на 95+ баллов в 2022(2023) году.
Ответы выделены в тексте.
Перед покупкой проверяйте актуальность вопросов в описании.
Для удобства поиска воспользуйтесь клавишами CTRL + F
390 руб.
Правоохранительные органы - тест с ответами Синергия - 2023
StudentHelp
: 18 марта 2023
Правоохранительные органы - тест с ответами Синергия - 2023
131 вопрос с ответом.
Сдано на 100 баллов в 2022 году.
Перед покупкой проверяйте актуальность вопросов в описании.
390 руб.
Инвестиционный менеджмент - тест с ответами Синергия - 2023
StudentHelp
: 27 февраля 2023
Инвестиционный менеджмент - тест с ответами Синергия - 2023
127 вопросов с ответами.
Сдано на 90 баллов в 2022 году.
Для удобства поиска по файлу воспользуйтесь CTRL + F.
Перед покупкой проверяйте актуальность вопросов.
390 руб.
Налоги и налогооблажения - тест с ответами Синергия - 2023
StudentHelp
: 15 февраля 2023
Налоги и налогооблажения - тест с ответами Синергия - 2023
204 вопроса с ответами.
Сдано на 97 баллов в 2022 году.
Для удобства поиска воспользуйтесь : CTRL + F.
Перед покупкой проверяйте актуальность вопросов.
390 руб.
Основы нейронных сетей. Синергия.Тест
ProF3206
: 16 февраля 2023
Основы нейронных сетей. Синергия.Тест. 22 вопроса. 2023 год. Перед покупкой убедитесь что вопросы вам подходят.
1. При прямом проходе через Feed Forward Neural Network:
2. Архитектура полносвязной нейронные сети основана на идее
3. Начальная инициализация весов нейросети:
4. Лучший способ борьбы с переобучением:
5. Наиболее популярный на текущий момент метод оптимизации, основанный на идее использования двух моментных членов, предложенный в 2015 году:
6. Обучение с учителем характеризуется
7. Г
200 руб.
Трудоустройство и развитие карьеры - тест с ответами - Синергия - 2023
StudentHelp
: 21 сентября 2023
Трудоустройство и развитие карьеры - тест с ответами - Синергия - 2023
Работа содержит архив с word документом на 53 вопроса с ответами.
Все ответы выделены цветом.
Для удобства поиска, используйте клавиши - CTRL+F в документе.
Работа сдана в 2023 году на 90 баллов(отлично).
Данная работа является оригиналом(смотрите дату сдачи и дату загрузки в магазин).
При покупке проверяйте актуальность вопросов для ВАС.
390 руб.
Другие работы
Физика. Экзамен. Билет №5.
seymchannet
: 15 марта 2016
Билет № 5
1. Превращения энергии при свободных незатухающих механических колебаниях. Функции кинетической и потенциальной энергий от времени.
2. Дифракция волн. Условие наблюдения дифракции. Виды дифракции. Принцип Гюйгенса-Френеля.
3. Колебательный контур состоит из катушки индуктивностью 0,2 мГн и плоского конденсатора с площадью пластин 155 см2 и расстоянием между ними 1,5 мм. Контур резонирует на длину волны 630 м. Вычислите диэлектрическую проницаемость среды между пластинами конденсатора.
150 руб.
Частотный метод анализа электрических цепей
HNB
: 8 декабря 2014
Цель работы
Познакомиться с методами измерения амплитудно-частотных (АЧХ) и фазо-частотных (ФЧХ) характеристик. Освоить работу с измерителем частотных характеристик. Исследовать RC-цепь и транзисторный усилитель в частотной области.
29 руб.
Контрольная работа №2 по дисциплине: Спутниковые и радиорелейные системы передачи. Вариант №21
Serebro09
: 28 апреля 2016
Контрольная работа No2 по дисциплине: Спутниковые и радиорелейные системы передачи. Вариант No21
1. Тема контрольной работы:
«Разработка схемы организации связи на цифровой РРЛ»
2. Содержание задания:
2.1. Для заданного числа каналов ТЧ рассчитать скорость передачи
цифрового сигнала
2.2. Выбрать тип оборудования ЦСП для соединительной линии
между ОРС ЦРРЛ и узлом проводной связи
2.3. Рассчитать требуемую полосу пропускания высокочастотного
тракта ЦРРЛ
2.4 Рассчитать отношение сигнал/шум на
200 руб.
Омонимы в русском языке
DocentMark
: 10 февраля 2013
Лексическая омонимия.
В лексической системе русского языка есть слова, которые звучат одинаково, но имеют совершенно разные значения. Такие слова называют лексическими омонимами, а звуковое и грамматическое совпадение языковых единиц, которые семантически не связаны друг с другом называется омонимией. (Гр. – homos – одинаковый + onyma – имя). Например, ключ' – 'родник' (студеный ключ) и ключ' – 'металлический стержень особой формы для отпирания и запирания замка' (стальной ключ); лук ' – 'растен