Теория информации |
Конспект лекций |
Конспект лекций в формате Microsoft Word
Содержание
2. Вероятностный подход к измерению количества информации
2.1 Виды информации
2.2 Оценка количества информации сообщений
2.3 Энтропия. Свойства энтропии
2.4 Условная энтропия. Свойства условной энтропии
2.5 Энтропия объединения. Свойства энтропии объединения
2.6 Относительная энтропия и избыточность сообщения
2.7 Тестовые вопросы
Лабораторная работа №1
3.1 Определения и примеры
3.2 Префиксные и разделимые коды
3.3 Неравенство Крафта
3.4 Неравенство МакМиллана
3.5 Тестовые вопросы
4. Оптимальное побуквенное кодирование
5. Почти оптимальное кодирование4.1 Определения и примеры
4.2 Теоремы Шеннона
4.3 Свойства оптимального побуквенного кода
4.4 Оптимальный код Хаффмана
4.5 Тестовые вопросы
Лабораторная работа №2
6. Арифметический код5.1 Код Шеннона
5.2 Код Фано
5.3 Тестовые вопросы
Лабораторная работа №3
7. Адаптивные методы кодирования
8. Словарные коды класса LZ7.1 Основная идея адаптивного кодирования
7.2 Адаптивный код Хаффмана
7.3 Код «Стопка книг»
7.4 Тестовые вопросы
Лабораторная работа №4
8.1 Общая схема кодирования
8.2 Кодирование с использованием скользящего окна
8.3 Кодирование с использованием адаптивного словаря
8.4 Тестовые вопросы
Лабораторная работа №5
Приложение А
Список литературы