Страницу Назад
Поискать другие аналоги этой работы
900 Онлайн Тест 3 по дисциплине: Теория информации.ID: 231071Дата закачки: 07 Декабря 2022 Продавец: IT-STUDHELP (Напишите, если есть вопросы) Посмотреть другие работы этого продавца Тип работы: Тесты Форматы файлов: Microsoft Word Сдано в учебном заведении: СибГУТИ Описание: Вопрос №1 Определить максимум энтропии системы, состоящей из 6 элементов, каждый из которых может быть в одном из четырех состояний равновероятно. 24 бит 12 бит 0 бит 10.34 бит Вопрос №2 Укажите верные соотношения для энтропии объединения двух источников A и В: H(B,A)<H(A,B) H(A,B)>H(A)+H(B) H(A,B)=H(A/B)+H(B/A) H(A,B)-H(B,А)>0 нет верных формул Вопрос №3 Что из перечисленного не является задачей теории информации? нахождение вероятностей символов источника отыскание наиболее оптимальных методов кодирования, позволяющих передать заданную информацию с помощью минимального количества символов определение объема запоминающих устройств, предназначенных для хранения информации, и способов ввода информации в эти запоминающие устройства и вывода ее для непосредственного использования Вопрос №4 Источник информации с алфавитом А={a, b, c, d} кодируют кодом «стопка книг». Начальное состояние «стопки» – abcd, используется префиксный код {0, 10, 110,111}. Определите результат работы кодера для последнего символа входной последовательности baа: 0 10 110 111 Вопрос №5 Если во множестве кодовых слов побуквенного кода ни одно слово не является началом другого, то такой код называется: префиксным разделимым декодируемым оптимальным неравномерным Вопрос №6 Выберите свойства, которыми обладает энтропия Шеннона: ограниченность неограниченность неотрицательность Вопрос №7 Оптимальным в классе всех побуквенных кодов для источника без памяти является код: код Шеннона код Хаффмана код Фано код Гилберта-Мура Вопрос №8 Даны два независимых источника: трехсимвольный источника с энтропией 1.2 бит и пяти символьный источник с энтропией 1.6 Определить энтропию объединения двух источников: 2.1 2.8 1.91 2.67 Вопрос №9 Для кодирования источника информации универсальным кодом знание статистики источника: нужно не нужно нужно, если источник информации является источником без памяти Вопрос №10 Энтропия источника, который генерирует текст на русском языке (алфавит из русских букв с пробелом 32 символа)... может принимать любое значение от 0 до 5 бит имеет неопределенное значение составляет 5 бит примерно равна 2 бит ============================================ Комментарии: Проверил(а): Мачикина Елена Павловна Оценка: Отлично Дата оценки: 07.12.2022 Помогу с вашим онлайн тестом, другой работой или дисциплиной. E-mail: sneroy20@gmail.com E-mail: ego178@mail.ru Размер файла: 58,6 Кбайт Фаил: (.docx)
Скачано: 2 Коментариев: 0 |
||||
Есть вопросы? Посмотри часто задаваемые вопросы и ответы на них. Опять не то? Мы можем помочь сделать! Некоторые похожие работы:Онлайн ТЕСТ Теория связиОнлайн ТЕСТ Философия Вариант общий Онлайн ТЕСТ Философия Онлайн ТЕСТ Математическая логика и теория алгоритмов СИНЕРГИЯ Организационная психология (Темы 1-7) Тест 98 баллов СИНЕРГИЯ Введение в юридическую профессию 2 семестр 2023 год Тест 95 баллов 2023 год СИНЕРГИЯ Командная работа и лидерство Тест 100 баллов 2023 год Ещё искать по базе с такими же ключевыми словами. |
||||
Не можешь найти то что нужно? Мы можем помочь сделать! От 350 руб. за реферат, низкие цены. Спеши, предложение ограничено ! |
Вход в аккаунт:
Страницу Назад
Cодержание / Теория информации / Онлайн Тест 3 по дисциплине: Теория информации.
Вход в аккаунт: