Компьютерные книги
Главное меню
Главная Поиск по сайту Добавить материал О нас Карта книг Карта сайта
Реклама
computersbooks.net -> Добавить материал -> Графика -> Гонсалес Р. -> "Цифровая обработка изображений" -> 202

Цифровая обработка изображений - Гонсалес Р.

Гонсалес Р., Вудс Р. Цифровая обработка изображений — М.: Техносфера, 2005. — 1072 c.
ISBN 5-94836-028-8
Скачать (прямая ссылка): cifrovayaobrabotkaizobrajeniy2005.djvu
Предыдущая << 1 .. 196 197 198 199 200 201 < 202 > 203 204 205 206 207 208 .. 349 >> Следующая

8.3. Элементы теории информации
В Разделе 8.1 было представлено несколько путей уменьшения объема данных, требуемых для представления изображения. Естественно возникает следующий вопрос: насколько много данных в действительности необходимо для представления изображения? Другими словами, существует ли минимальное количество данных, которых достаточных для полного описания изображения без потери информации? Теория информации дает математическую основу для ответа на этот и близкие ему вопросы.
8.3.1. Измерение информации
Фундаментальная предпосылка теории информации заключается в том, что источник информации может быть описан как вероятностный процесс, который может быть измерян естественным образом. В соответствии с этим предположением говорят, что случайное событие Е, появляющееся с вероятностью Р(Е), содержит
13 Заметим, что процедура восстановления сжатого 4-битового значения МКЯ сводится к умножению полученного числа на 16. Например, если значение МКЯ было равно 11IO2 = 14]0, то восстановленное значение должно быть равно 14-16 = 224. Если же старший бит в результате ошибки был передан как 0, то восстановленное значение будет равно 96, что составляет ошибку в 128 градаций. — Прим. перев.
620 Глава 8. Сжатие изображений
I(E) = \o%-±- = -\ogP(E) (8.3-1)
Р(Е)
единиц информации. Значение 1(E) часто называют количеством информации в событии Е. Вообще говоря, приписываемое событию Е количество информации тем больше, чем меньше вероятность Е. Если Р(Е) = 1 (то есть событие возникает всегда), то 1(E) = 0 и данному событию не приписывают никакой информации. Это означает, что если нет никакой неопределенности, связанной с событием, то сообщение о том, что данное событие произошло, не несет никакой информации. Однако, если Р(Е) = 0,99, то сообщение о том, что Епроизошло, уже передает некоторое небольшое количество информации. Сообщение же, что Е не произошло, передает существенно больше информации, поскольку это событие значительно реже.
Основание логарифма в (8.3-1) задает единицу измерения количества информации14. Если используется основание т, то говорят о единицах измерения по основанию т. Когда основание равно 2, единица информации называется бит. Заметим, что если Р(Е) = 1/2, то 1(E) = —log2l/2, или одному биту. Таким образом, бит есть количество информации, передаваемое сообщением о том, что произошло одно из двух возможных равновероятных событий. Простой пример сообщения такого рода — сообщение о результате подбрасывания монеты.
8.3.2. Канал передачи информации
Когда информация передается между источником и получателем информации, то говорят, что источник информации соединен с получателем каналом передачи информации (или просто каналом). Канал есть некоторая физическая среда, соединяющая источник с получателем. Это может быть телефонная линия, среда распространения электромагнитных волн, или проводник в компьютере. На Рис. 8.7 представлена простая
Источник информации
Канал
Получатель информации
Ансамбль сообщений (A, z) Ансамбль сообщений (В, \)
A={aj\ Q=lqkj] B={bk}
z=[P(fl|), P(a2),..., P(aj)] v=[/>(*i), Рфг), ¦¦¦, РФк)\
Рис. 8.7. Простая система передачи информации.
14 Если основание логарифма явно не задается, это означает, что результат справедлив при любых основаниях и соответствующих единицах информации.
8.3. Элементы теории информации 621
математическая модель системы передачи информации. Здесь представляющим интерес параметром является пропускная способность системы, определяемая как возможность системы передавать сообщения.
Предположим, что источник информации на Рис. 8.7 генерирует случайную последовательность символов из конечного или счетного набора возможных символов, т.е. выход источника есть дискретная случайная величина. Набор исходных символов {a j, а2,..., aj} называют алфавитом источника А, а элементы набора ар — символами или буквами. Вероятность того, что источник порождает символ ар равна P(aj), причем
2>(я/) = 1. (8-3-2)
j=1
Для описания совокупности вероятностей символов источника {Р(ах), Р(а2),..., P(aj)} обычно используется /-мерный вектор вероятностей z = [Р{а\), Р(а2),..., Р{ау)]Т. Тем самым источник информации полностью описывается конечным ансамблем сообщений (A, z).
В соответствий со сделанными предположениями и формулой (8.3-1), количество информации, передаваемое источником при порождении одного символа ар будет равно I(aJ) = —log P(aj). Если порождаются к символов источника, то, согласно закону больших чисел, при достаточно больших к символ aj будет появляться на выходе (в среднем) kP(aj) раз. Тем самым среднее количество информации, передаваемое посредством к символов источника, составит величину
~кР(а]) log Р(ах)~ кР(а2) log Р(а2) -... - кР(а у) log P(aj) =
J
= -k^P(aj)logP(aj).
j=і
Среднее количество информации, приходящейся на один символ источника и обозначаемое Н(г), равно
J
H(z) = -^P(aj)logP(aj). (8.3-3)
j=і
Эту величину называют энтропией или неопределенностью источника15. Она определяет среднее количество информации (в системе единиц с основанием т), получаемой при наблюдении одного символа источ-
Предыдущая << 1 .. 196 197 198 199 200 201 < 202 > 203 204 205 206 207 208 .. 349 >> Следующая
Книги
Web-программирован-
ие
Аппаратное обеспечение Графика Руководство по П.О. Самоучитель Теория программирования Фотошоп Языки программирования
Новые книги
Вирт Н. "Систематическое программирование " (Теория программирования)

Эком "Microsoft Excel 2000 шаг за шагом Русская версия самоучитель " (Самоучитель)

Поляков А.Ю. "Методы и алгоритмы компьютерной графики в примерах Vizual C++" (Графика)

Баяковский Ю.М. "Графическая библиотека Open GL " (Графика)

Валиков А. "Технология " (Языки программирования)
Авторские права © 2013 ComputersBooks. Все права защищены.