Теория информации |
Конспект лекций |
2. ВЕРОЯТНОСТНЫЙ ПОДХОД К ИЗМЕРЕНИЮ КОЛИЧЕСТВА ИНФОРМАЦИИ
2.7 Тестовые вопросы
1. Сколько битов потребуется, чтобы размесить в памяти компьютера фразу
«Тили-тили тесто!»?
a) 16
b) 128
c) 32
2. Максимальное значение энтропии источника, который порождает 16 различных символов равно
a) 4
b) 1
c) нельзя определить
3. Коэффициент сжатия для источника с вероятностями ,
,
,
равен
a) 0.875
b) 0.125
c) 1.338
4. Энтропия Шеннона обладает свойством
a) аддитивности
b) ассоциативности
c) социальности
5. Количество информации, содержащееся в двух статистически зависимых сообщениях, оценивается величиной
a) энтропии Шеннона
b) условной энтропии
c) относительной энтропии
Правильные ответы.
1 - b)
2 - a)
3 - a)
4 - a)
5 - b)