Теория информации
Конспект лекций
назад | содержание | вперед

2. ВЕРОЯТНОСТНЫЙ ПОДХОД К ИЗМЕРЕНИЮ КОЛИЧЕСТВА ИНФОРМАЦИИ

 

2.7 Тестовые вопросы

 

1. Сколько битов  потребуется, чтобы размесить в памяти компьютера фразу

«Тили-тили тесто!»?

    a) 16

    b) 128

    c) 32

2. Максимальное значение энтропии источника, который порождает 16 различных символов равно

    a) 4

    b) 1

    c) нельзя определить

3. Коэффициент сжатия для источника с вероятностями  , , ,  равен

    a) 0.875

    b) 0.125

    c) 1.338

4. Энтропия Шеннона обладает свойством

    a) аддитивности

    b) ассоциативности

    c) социальности

5. Количество информации, содержащееся в двух статистически зависимых сообщениях, оценивается величиной

    a) энтропии Шеннона

    b) условной энтропии

    c) относительной энтропии

 

Правильные ответы.

1 - b)
2 - a)
3 - a)
4 - a)
5 - b)

 

 

 

наверх

 


назад | содержание | вперед