Компьютерные книги
Главное меню
Главная Поиск по сайту Добавить материал О нас Карта книг Карта сайта
Реклама
computersbooks.net -> Добавить материал -> Графика -> Гонсалес Р. -> "Цифровая обработка изображений" -> 325

Цифровая обработка изображений - Гонсалес Р.

Гонсалес Р., Вудс Р. Цифровая обработка изображений — М.: Техносфера, 2005. — 1072 c.
ISBN 5-94836-028-8
Скачать (прямая ссылка): cifrovayaobrabotkaizobrajeniy2005.djvu
Предыдущая << 1 .. 319 320 321 322 323 324 < 325 > 326 327 328 329 330 331 .. 349 >> Следующая

сЩсХп' 2 '• <12-2-|9)
где каждая функция р(х | со,) полностью задается вектором математического ожидания ту и ковариационной матрицей Су, которые определяются как
mj = Ej{x} (12.2-20)
и
Сj = Ej {(х-ШуХх-Шу)7 }, (12.2-21)
где запись Ej{ ¦} означает математическое ожидание значения аргумента на образах из класса со,-. В уравнении (12.2-19) н есть размерность пространства признаков, а [Су | — определитель матрицы Су. Приближая математические ожидания Ej средними значениями, получаем следующие оценки для вектора математического ожидания и ковариационной матрицы:
га,- =—-— J х (12.2-22)
7 N: ^
J ХЄ СО,
и
С
¦> N ¦ 3 }
] ХЄ COj
где Nj — число образов из класса соу, на которых проводится суммирование. Ниже в этом разделе мы приведем пример использования этих двух выражений.
Ковариационная матрица является симметрической и положительно полуопределенной. Как объяснялось в Разделе 11.4, ее диагональные элементы ckk являются дисперсиями компонент хк вектора признаков, а лежащие вне диагонали элементы cjk — ковариациями компонент Xj и хк этого вектора. Если все недиагональные элементы матрицы кова-
12.2. Распознавание на основе методов теории решений
риации нулевые, то многомерная гауссова функция распределения разлагается на произведение одномерных гауссовых плотностей каждой компоненты вектора х. Это происходит в том случае, если компоненты Xj и хк этого вектора (т.е. признаки j и к) некоррелированы.
В соответствии с (12.2-17), байесовская дискриминантная функция для класса ооу есть dj(x) = р(х \ bhj)P(a>j). Однако, учитывая экспоненциальный вид гауссовой плотности распределения, удобнее иметь дело с натуральным логарифмом этой функции. Другими словами, мы будем использовать дискриминантные функции вида
dj(x) = ln[р(х|ю/-)Р((Ву)] = Inp(x\(dj)+ In P((dj). (12.2-24)
Данное выражение эквивалентно (12.2-17) с точки зрения классификации, поскольку логарифм — монотонно возрастающая функция. Иначе говоря, упорядоченность значений дискриминантных функций, задаваемых уравнениями (12.2-17) и (12.2-24), будет одинаковой. Подставляя уравнение (12.2-19) в (12.2-24), получаем:
^•(x) = lnJP((oy)-^ln27t-|ln|cy|-i[(x-ra7)TCj1(x-ray)]. (12.2-25)
Член (п/2)1п2л одинаков для всех классов, так что его можно исключить из уравнения (12.2-25), которое тогда примет вид
dj (х) = In P(u)j) -1 in І Су |-
(12.2-26)
--[(x-my^Cj^x-my)] y'=l,2,...,W.
Это уравнение байесовских дискриминантных функций для классов с нормальным распределением при условии нуль-единичной функции потерь.
Дискриминантные функции, заданные уравнениями (12.2-26), определяют поверхности второго порядка, поскольку являются квадратичными функциями в «-мерном пространстве, не содержащими членов с компонентами вектора х выше второй степени. Поэтому ясно, что для нормально распределенных образов байесовский классификатор строит между каждой парой классов разделяющую поверхность второго порядка общего вида. Если генеральные совокупности образов каждого класса в самом деле описываются нормальным распределением, то никакая другая поверхность не позволит получить меньшую величину средних потерь от ошибочной классификации.
Глава 12. Распознавание объектов
Если ковариационные матрицы для всех классов одинаковы, т.е. Cj= Сдля7=1, 2,..., W, то, раскрывая уравнение (12.2-26) и отбрасывая все члены, не зависящие от j, получим
dj(х) = InP((Hj)+ xTC~xnij-^щугС_1іПу j=\,2,...,W, (12.2-27)
т.е. линейные дискриминантные функции, которые задают разделяющие гиперплоскости.
Если вдобавок С = I (где I — единичная матрица) и Р(со() = \/Wдля j = 1,2,..., W(классы равновероятны), то
dj(x) = xTmj-^mJmj j= 1,2 W. (12.2-28)
Эти уравнения задают дискриминантные функции для классификатора по минимуму расстояния, и совпадают с ранее приведенными формулами (12.2-5). Таким образом, классификатор по минимуму расстояния является оптимальным в байесовском смысле, если (1) классы имеют нормальное распределение, (2) все ковариационные матрицы единичные, и (3) все классы равновероятны. Удовлетворяющие перечисленным требованиям нормально распределенные классы имеют в «-мерном пространстве признаков форму одинаковых гиперсфер. Классификатор по минимуму расстояния строит разделяющую гиперплоскость для каждой пары классов, проходящую перпендикулярно через середину отрезка, соединяющего центры этих двух классов. В двумерном случае классы образуют области круглой формы, и разделяющие поверхности имеют форму линий — перпендикуляров в серединах отрезков, соединяющих центры каждой пары таких кругов.
Пример 12.3: Байесовский классификатор для трехмерных образов.
¦ На Рис. 12.11 показан простой пример расположения двух классов образов в трехмерном пространстве. Проиллюстрируем с помощью этих образов технику реализации байесовского классификатора, предполагая, что образы каждого класса являются выборкой из гауссова распределения.
Применяя равенство (12.2-22) к образам на Рис. 12.11, получаем:
12.2. Распознавание на основе методов теории решений 1005

-х2
Рис. 12.11. Два простых класса образов и их байесовская разделяющая поверхность (показана серым цветом).
Предыдущая << 1 .. 319 320 321 322 323 324 < 325 > 326 327 328 329 330 331 .. 349 >> Следующая
Книги
Web-программирован-
ие
Аппаратное обеспечение Графика Руководство по П.О. Самоучитель Теория программирования Фотошоп Языки программирования
Новые книги
Вирт Н. "Систематическое программирование " (Теория программирования)

Эком "Microsoft Excel 2000 шаг за шагом Русская версия самоучитель " (Самоучитель)

Поляков А.Ю. "Методы и алгоритмы компьютерной графики в примерах Vizual C++" (Графика)

Баяковский Ю.М. "Графическая библиотека Open GL " (Графика)

Валиков А. "Технология " (Языки программирования)
Авторские права © 2013 ComputersBooks. Все права защищены.