Страницу Назад
Поискать другие аналоги этой работы

900

Онлайн Тест 3 по дисциплине: Теория информации.

ID: 231071
Дата закачки: 07 Декабря 2022
Продавец: IT-STUDHELP (Напишите, если есть вопросы)
    Посмотреть другие работы этого продавца

Тип работы: Тесты
Форматы файлов: Microsoft Word
Сдано в учебном заведении: СибГУТИ

Описание:
Вопрос №1
Определить максимум энтропии системы, состоящей из 6 элементов, каждый из которых может быть в одном из четырех состояний равновероятно.

24 бит

12 бит

0 бит

10.34 бит

Вопрос №2
Укажите верные соотношения для энтропии объединения двух источников A и В:

H(B,A)<H(A,B)

H(A,B)>H(A)+H(B)

H(A,B)=H(A/B)+H(B/A)

H(A,B)-H(B,А)>0

нет верных формул

Вопрос №3
Что из перечисленного не является задачей теории информации?

нахождение вероятностей символов источника

отыскание наиболее оптимальных методов кодирования, позволяющих передать заданную информацию с помощью минимального количества символов

определение объема запоминающих устройств, предназначенных для хранения информации, и способов ввода информации в эти запоминающие устройства и вывода ее для непосредственного использования

Вопрос №4
Источник информации с алфавитом А={a, b, c, d} кодируют кодом «стопка книг». Начальное состояние «стопки» – abcd, используется префиксный код {0, 10, 110,111}. Определите результат работы кодера для последнего символа входной последовательности baа:

0

10

110

111

Вопрос №5
Если во множестве кодовых слов побуквенного кода ни одно слово не является началом другого, то такой код называется:

префиксным

разделимым

декодируемым

оптимальным

неравномерным

Вопрос №6
Выберите свойства, которыми обладает энтропия Шеннона:

ограниченность

неограниченность

неотрицательность

Вопрос №7
Оптимальным в классе всех побуквенных кодов для источника без памяти является код:

код Шеннона

код Хаффмана

код Фано

код Гилберта-Мура

Вопрос №8
Даны два независимых источника: трехсимвольный источника с энтропией 1.2 бит и пяти символьный источник с энтропией 1.6 Определить энтропию объединения двух источников:

2.1

2.8

1.91

2.67

Вопрос №9
Для кодирования источника информации универсальным кодом знание статистики источника:

нужно

не нужно

нужно, если источник информации является источником без памяти

Вопрос №10
Энтропия источника, который генерирует текст на русском языке (алфавит из русских букв с пробелом 32 символа)...

может принимать любое значение от 0 до 5 бит

имеет неопределенное значение

составляет 5 бит

примерно равна 2 бит
============================================

Комментарии:
Проверил(а): Мачикина Елена Павловна
Оценка: Отлично
Дата оценки: 07.12.2022

Помогу с вашим онлайн тестом, другой работой или дисциплиной.
E-mail: sneroy20@gmail.com
E-mail: ego178@mail.ru

Размер файла: 58,6 Кбайт
Фаил: Microsoft Word (.docx)

   Скачать

   Добавить в корзину


    Скачано: 2         Коментариев: 0


Не можешь найти то что нужно? Мы можем помочь сделать! 

От 350 руб. за реферат, низкие цены. Просто заполни форму и всё.

Спеши, предложение ограничено !



Что бы написать комментарий, вам надо войти в аккаунт, либо зарегистрироваться.

Страницу Назад

  Cодержание / Теория информации / Онлайн Тест 3 по дисциплине: Теория информации.
Вход в аккаунт:
Войти

Забыли ваш пароль?

Вы еще не зарегистрированы?

Создать новый Аккаунт


Способы оплаты:
UnionPay СБР Ю-Money qiwi Payeer Крипто-валюты Крипто-валюты


И еще более 50 способов оплаты...
Гарантии возврата денег

Как скачать и покупать?

Как скачивать и покупать в картинках


Сайт помощи студентам, без посредников!