Раздел 2
Выбор средств и критериев идентификации, разработка методики расчета
Проведенный анализ и обобщение литературных источников [26-31,42-73]
посвященной конструированию и практическому использованию НС выявил следующие
особенности.
1) Современные задачи распознавания предпочтительно решаются с помощью
нейросетевых методов.
2) В доступной литературе не обнаружено каких либо правил, законов или методик,
определяющих использование различных моделей НС для решения конкретных задач.
Выявлены лишь общие рекомендации по использованию той или иной модели. Для
каждой конкретной задачи выбор модели НС осуществляет разработчик системы либо
на основании своего опыта либо на основании сравнительного анализа различных
моделей НС.
3) Не выявлено общепринятых критериев оценки качества распознавания
нейросетевых классификаторов.
Применение в современных распознающих системах нейронных сетей привело к тому,
что разработчики таких систем разделились на два лагеря. Одни пытаются
оценивать качество распознавания, основываясь на критериях эффективности НС
таких как: время обучения, полная ошибка на выходе НС, количество итераций в
одном цикле распознавания и т.д. [42-45]. Другие используют классические
критерии оценки качества распознавания такие как: вероятность правильного
распознавания, суммарная ошибка, ошибки первого и второго рада и т.д. [74-77].
При этом опять же нет единства в том, какие критерии использовать.
Таким образом, для решения задачи выбора и обоснования структуры модуля
распознавания автоматизированной системы, и выбора критериев оценки качества
распознавания необходимо рассмотреть следующий ряд дополнительных задач:
— обосновать выбор НС в качестве основы модуля распознавания автоматизированной
системы;
— провести сравнительный анализ различных НС и выбрать наиболее эффективную НС
на базе которой будет построен модуль распознавания;
— для оценки качества распознавания автоматизированной системы идентификации
автомобильных номеров госрегистрации необходимо выбрать критерии оценки
качества распознавания и разработать методику их расчета.
2.1. Существующие модели нейронных сетей
Появление НС было тесно связано с желанием ученых смоделировать работу
человеческого мозга, поэтому прототип архитектуры искусственных НС был основан
на естественных нейронных сетях.
НС обладают хорошей обобщающей способностью (лучше чем у решающих деревьев
[47]), т.е. могут успешно распространять опыт, полученный на конечном обучающем
наборе, на всё множество образов. Такая особенность НС послужила главной
причиной принятия решения о создании на ее основе модуля распознавания
автоматизированной системы АСИАНГ.
Не смотря на большое многообразие нейросетевых моделей, можно выделить лишь
несколько, которые на практике успешно используются при решении задач
распознавания изображений [42-46]. Для дальнейшего сравнительного анализа были
выбраны следующие модели:
— многослойный персептрон;
— сеть Хоппфилда;
— самоорганизующиеся карты Кохонена;
— вероятностная нейронная сеть.
2.1.1. Многослойный персептрон
Первые упоминания о многослойных нейронных сетях появились в 1960-х годах в
работах Розенблатта (“Принципы нейродинамики”, 1964), Минского и Пейперта
(“Персептроны”, 1969) и др. В 1986 г. Руммельхартом, Хинтоном и Вильямсом
независимо друг от друга был предложен алгоритм обратного распространения
ошибок (error backpropagation) [43]. Многочисленные публикации о промышленных
применениях многослойных сетей с этим алгоритмом обучения подтвердили его
принципиальную работоспособность на практике.
Для анализа возможностей многослойного персептрона рассмотрим схему с одним
скрытым слоем, представленную на рис. 2.1. Из рисунка видно, что архитектура
многослойного персептрона состоит из последовательно соединённых
слоёв, где нейрон каждого слоя своими входами связан со всеми нейронами
предыдущего слоя, а выходами – со всеми нейронами следующего слоя.
В [26] приводится доказательство того, что многослойный персептрон с одним
скрытым слоем может с любой точностью аппроксимировать любую многомерную
функцию. Классический персептрон Розенбатта состоящий из двух слоев способен
формировать линейные разделяющие поверхности, что сильно сужает решаемый им
круг задач, в частности он не сможет решить задачу типа “исключающее или”. Если
многослойный персептрон использует модель формального нейрона с нелинейной
функцией активации и имеет один скрытый слой, то это позволяет формировать
любые выпуклые области в
Рис. 2.1. Структура многослойного персептрона.
пространстве решений. При наличии двух скрытых слоев, возможно формирование
области любой сложности, в том числе и невыпуклой.
Цель обучения многослойного персептрона — минимизация функционала ошибки
зависящего от всех настроечных весов сети. В необученном состоянии выход сети
мало соответствует ожидаемому результату. Чем лучше обучена сеть тем меньше
величина ошибки. Таким образом, задача обучения многослойного персептрона по
существу сводится к решению задачи оптимизации. Поэтому для обучения
персептрона можно использовать все те методы, которые используются в
математическом анализе для решения задачи оптимизации. Обучение сети состоит в
подстройке весовых коэффициентов каждого нейрона. Для упрощения обозначений
ограничимся ситуацией, когда сеть имеет только один скрытый слой см. рис. 2.1.
Обозначим матрицу весовых коэффициентов от входов к скрытому слою через , а
матрицу весов, соединяющих скрытый и выходной слой - как . Для индексов примем
следующие обозначения: входы будем нумеровать только индексом , элементы
скрытого слоя - инде
- Київ+380960830922