научная статья по теме Адаптивная обработка данных непрерывной природы для распознавания изображений пыльцевых зерен Науковедение

Текст научной статьи на тему «Адаптивная обработка данных непрерывной природы для распознавания изображений пыльцевых зерен»

Джуманов О.И., кандидат технических наук, доцент Самаркандского государственного университета (Узбекистан)

АДАПТИВНАЯ ОБРАБОТКА ДАННЫХ НЕПРЕРЫВНОЙ ПРИРОДЫ ДЛЯ РАСПОЗНАВАНИЯ ИЗОБРАЖЕНИЙ ПЫЛЬЦЕВЫХ ЗЕРЕН

Разработаны структура организации работы НС и модели адаптивного обучения на основе различных архитектур и оптимальной идентификации обучающей выборки. Реализованы алгоритм функционирования НС и программная система распознавания изображений пыльцевых зерен.

Введение. Решение многих актуальных научно-технических задач, таких как, распознавание изображений микрообъектов, пыльцевых зерен, отпечатков пальцев, текстов, графиков технико-экономических показателей и параметров производства сводится к моделированию динамических объектов и требует построения систем адаптивной обработки данных непрерывной природы в условиях нестационарности процессов, что представляют важную нерешенную область исследований [1].

Удобной компьютерной технологией для построения адаптивной системы обработки данных нестационарных и слабоформализуемых процессов является использование аппарата искусственных нейронных сетей (НС), как основного инструментария адаптации, способного использовать обнаруженные в случайных процессах порядок и некоторую вероятностную структуру при самообучении [2].

В настоящей работе исследования направлены на построение методики использования НС и реализацию моделей НС в системах адаптивной обработки данных непрерывной природы для распознавания изображений микрообъектов, на примере пыльцевых зерен.

Организация структуры НС. Существуют логические, непрерывные и импульсные модели формального нейрона [3]. Исследуемые нами проблемные задачи в основном связаны с аппроксимацией непрерывных функций, в связи с чем рассмотрен непрерывный тип моделей искусственного нейрона.

Исследуемая структура НС основывается на конструкции многослойной НС с заданным количеством входных нейронов, соединенных с нейронами скрытых слоев нелинейной функцией и одним выходным нейроном.

Для распознавания изображений микрообъектов предложим организовать работу НС на основе трех слоев, которые назовем как входной, признаковый и эффекторный. Основное условие работы модели многослойной НС заключается в том, чтобы каждый нейрон последующего слоя был связан со всеми нейронами предыдущего слоя, причем важно определение активационной функции между слоями. Нелинейность активационной функции необходима для увеличения мощности НС по сравнению с однослойной.

Следует отметить, что рассматриваемая модель НС представляет собой один из вариантов самоорганизующейся системы обучения. Опишем функции каждого слоя, задачи, возникающие в них и результаты решений.

Слой 1 — Входной слой. Этот слой получает данные непосредственно от входов нейро-сети. Основной задачей входного слоя является формирование активного нейрона или нейронных ансамблей для каждого класса входных векторов, которые передаются на последующие уровни НС.

Веса активных нейронов устанавливаются по правилу:

= К + 5(х - )а , (1)

wн — новое значение веса; wc — старое значение; 5 = — скорость поворота, причем dw < 1; х — нормированный входной вектор; а — активность нейрона.

Геометрически это правило иллюстрирует рисунок 1.

Входной вектор х нормируется перед подачей на вход нейросети так, чтобы располагаться на гиперсфере единичного радиуса в пространстве весов. При коррекции весов по правилу (1) происходит поворот вектора весов в сторону входного вектора. Здесь важным параметром является скорость поворота dw и его постепенное уменьшение позволяет произвести статистическое усреднение входных векторов, на которые реагирует данный нейрон, что характерно рассматриваемой задаче распознавания изображений микрообъекта.

Слой 2 — Признаковый слой. В данном слое алгоритмом обучения НС вырабатываются признаки распознаваемого объекта, соответствующие ссылающейся базе данных, с которыми ассоциируется соответствующий входной нейрон. Для нейрона этого слоя вычисляется суммарный взвешенный сигнал на входах и при помощи функции активации он передается на выход. Предлагается следующая модификация весов связей при обучении:

Рис. 1. Коррекция весов нейрона

w,.

= wjc + 8(у, - wljc)x,

wijH, wijc — веса связей до и после модификации; через 8 обозначено приращение dw, которое идентифицирует скорость обучения, 8 < 1; у, — выход нейрона; x, — вход нейрона.

По этому правилу модифицируются связи только от активных в данный момент нейронов входного слоя и вектор весов связей стремится к выходному вектору. Выходы у модифицирующего слоя, как правило, являются бинарными, т. е. нейрон может быть активен, тогда у, = 1 или неактивен, тогда у, = 0 .

Входной слой совместно с признаковым слоем позволяют сопоставить каждому классу входных сигналов определенные характеристики образца микрообъекта.

Слой 3 — Эффекторный слой определяет эффективность обработки изображений. Слой получает сигналы от признакового слоя и на выходе слоя формируется вектор эффекторов, активность которых задает параметры НС. Здесь каждому нейрону признакового слоя, а следовательно, и какому-то образцу микрообъекта сопоставляется некоторый вектор эффекторов, который передается на выход для принятия окончательного решения. Моделирование этого слоя требует особого внимания и обучение в данном слое в зависимости от заданной архитектуры является самостоятельным вопросом исследования. Исследование начнем с математических принципов обучения НС.

Математические принципы обучения НС. В созданном варианте системы обработки данных нестационарной природы нами реализованы процедуры обучения без учителя, которая является более эффективной моделью в адаптивных системах, чем обучение с учителем.

В связи с этим, предложим обучение эффекторного слоя НС осуществить использованием механизма стохастического обучения. В данном случае считается, что нейроны эффекторного слоя подвержены случайным изменениям, в связи с чем необходимо накопление знаний о свойствах и закономерностях этих изменений, которые служат априорной базой для организации работы алгоритма адаптивной обработки информации. Затем генерируется значения аппроксимирующейся последовательности и результат сравнивается с значениями случайных величин в обучающей последовательности. При несовпадении изменения фиксируются и процесс повторяется, пока не будет достигнута правильная генерация всех величин.

Нами выработаны процедуры выделения статистических свойств обучающей выборки, позволяющие группировать сходные векторы в классы на основе учета свойств стационарности, квазистационарности и нестационарности. Отметим, что учет этих свойств позволяет получая на входе вектор из данного класса, выдавать на выходе вектор, избавленный от случайных вансаций путем осуществления качественной фильтрации.

Согласно предложенной структуры организации НС выходной сигнал нейрона эффек-торного слоя запишем в виде:

У = Гр(г№х), (2)

где Г. — коэффициент усиления, определяющий максимальные и минимальные значения выходного сигнала; сг(-) — функция активации; у1 — параметр, задающий «крутизну» функции активации;. Ж. = (0., wj1, wj 2,..., wjn )т — настраиваемые синаптические веса ]-го

нейрона сети; 0. — сигнал смещения;; х = х1, х2?...? хп — входные сигналы.

В [2] доказано, что НС с одним скрытым слоем, выходной нейрон может с любой наперед заданной точностью аппроксимировать произвольную функцию. В связи с этим, выходной сигнал рассматриваемой сети, состоящей из N нейронов перепишем в виде

У = £ Гр(ууТх) - /(х),

1=1

т. е. он аппроксимирует любую непрерывную функцию / (х), обеспечивая условие близости |у - /(х) < а для всех возможных входов х, принадлежащих некоторому гиперкубу.

В качестве возможных функций активации нейрона (2) задавая ограничения на квадрате -1 < и1 < 1, -1 <у1 < 1, мы исследовали комплекс сигмоидальных, тангенсных униполярных

и биполярных функций.

Определено, что конкретный вид функции активации значительно зависит от параметра у. и соответствующим выбором этого параметра можно добиться их идентичности.

Это позволяет утверждать, что представленные функции активации упрощают процесс обучения и дают возможность ввести унифицированную схему обучения формального нейрона для широкого класса задач обработки непрерывной по природе информации, в частности, для задачи распознавания изображений микрообъектов.

Другой важной задачей организации работы НС является выбор скорости обучения.

Выбор скорости обучения. При определении скорости обучения важную роль играет правило предъявления образцов. Допустим, имеется большая обучающая выборка, последовательным предъявлением элементов которой обучается НС. Определено, что если скорость обучения велика, то уже на середине этой выборки НС «забудет» предыдущие элементы. А если каждый образец предъявляется подряд много раз, то на следующем образце НС забудет предыдущий. В связи с этим, предложено соблюдение условия выбора скорости обучения, где требуется сохранение существующих связей в последовательности обучающей выборки. Оптимизация решения такой задачи осуществлена на основе применения эффективных алгоритмов идентификации и фильтрации обучающей последовательности, например, параболических сплайн-функций при квазистационарных процессах или модифицированного фильтра Калмана при нестационарных процессах.

В реализованном нами варианте системы распознавания изображения микрообъектов в правиле обучения входного слоя (1) присутствует коэффициент 5. Если он равен 1, то для

каждого входного вектора вектор связей активного нейрона приравнивается к нему. Однако, для каждого нейрона существует множество входных сигналов, которые могли бы его активировать, и его вектор связей постоянно менялся бы. Если же 5<1, то на каждый входной сигнал вектор связей реагирует незначительно и уменьшая 5 в процессе обучения, мы в конце обучения получим статистическое усреднение схожих входных сигналов. Для модификации алгоритмов обучения путем выбора скорости обучения в эффекторном слое исследованы различные архитектуры НС и получены выражения корректировки весовых коэффициентов.

На основе исследован

Для дальнейшего прочтения статьи необходимо приобрести полный текст. Статьи высылаются в формате PDF на указанную при оплате почту. Время доставки составляет менее 10 минут. Стоимость одной статьи — 150 рублей.

Показать целиком