Вы здесь

Моделі та засоби оцінювання знань за допомогою гібридної нечітко-нейронної інформаційної технології

Автор: 
Ноздренков Валерій Станіславович
Тип работы: 
Дис. канд. наук
Год: 
2007
Артикул:
0407U002744
129 грн
Добавить в корзину

Содержимое

раздел 2). Однако,
учитывая специфику решаемой задачи, ни один из приведенных выше методов не
может быть непосредственно использован.
Поэтому, в виду того, что итоговая оценка носит накопительный характер,
вычисляем значение истинности для предпосылки каждого правила (уровни отсечения
для предпосылок каждого правила) как:
81982
где – степень истинности каждой предпосылки каждого правила.
Производится объединение усеченных функций принадлежности с использованием
операции max (максимум, обозначаемой как «»), в результате чего получается
комбинированное нечеткое подмножество, описываемое функцией принадлежности и
соответствующее логическому выводу для выходной переменной .
Таблица 3.1
Правило выполнения композиции в модифицированном алгоритме Мамдани
Шкала
Композиция
Двухбалльная
Пятибалльная
ECTS
N балльная
Аналогично можно выполнить композицию в модифицированном алгоритме Ларсена.
Таблица 3.2
Правило выполнения композиции в модифицированном алгоритме Ларсена
Шкала
Композиция
Двухбалльная
Пятибалльная
ECTS
N балльная
Для получения четкого значения выходной переменной воспользуемся центроидным
методом приведения к четкости. Четкое значение выходной переменной определяется
как центр тяжести для кривой , т.е.
, 831084
На рис. 3.2 приведен пример получения четкого значения выходной переменой .
Рис. 3.2. Композиция и приведение к четкости
Предложенный алгоритм, основанный на модификации Мамдани или Ларсена, позволяет
вычислять итоговую рейтинговую оценку знаний, как для традиционной шкалы, так в
общем случае и для N-балльной шкалы. Преимуществом данного подхода является
возможность дифференцировать задания не только по их сложности, но и в
зависимости от полученной оценки. Нечеткость границ между термами
лингвистической переменной позволяет приблизить автоматизированное вычисление
итоговой оценки знаний к эвристическим методам преподавателя.
Обучение гибридной нечетко-нейронной системы
В предложенной нейронной системе нечеткого вывода выбор соответствующего вида
функций принадлежности выполняется обычно на основе решения эксперта. Однако
значения параметров этих функций можно определить при помощи известных методов
оптимизации. Поскольку рассматриваемая система представляет собой многослойную
структуру, подобную нейронным сетям, можно использовать для настройки значений
ее параметров один из известных оптимизационных методов, используемых для
обучения нейронных сетей [68].
Для реализации требуемого отображения (2.23), с учетом обучающей выборки где -
число элементов обучающей выборки, необходимо осуществить настройку параметров
системы, а именно подстроить вид функций принадлежностей термов лингвистической
переменной .
Определим функцию ошибки для -го предъявляемого образца:
851186
где .
Соответственно, суммарная функция ошибки по всем элементам выборки:
871288
Следует отметить, что во всех слоях предложенной гибридной нечетко-нейронной
системы весовые коэффициенты соединений не будут модифицироваться в процессе
обучения системы. Модифицируемыми параметрами являются верхние границы функций
принадлежности термов лингвистической переменной .
Далее, как и в обычных нейронных сетях необходимо использовать итерационные
алгоритмы для обучения. Так как функции принадлежности термов лингвистической
переменой заданы в общем виде кусочно-непрерывной функцией (см. рис. 2.7), для
которых применение градиентных методов не целесообразно, в виду разрыва
производной первого порядка, воспользуемся методом Нелдера-Мида. Этот метод
является одним из наиболее быстрых и наиболее надежных не градиентных методов
многомерной оптимизации, если N?6 [[cv]]. Метод Нелдера-Мида (поиск по
деформируемому многограннику) является развитием симплексного метода Спендли,
Хекста и Химсворта. Множество N+1-й равноудаленной точки в N-мерном
пространстве называется регулярным симплексом.
Идея метода состоит в сравнении значений функции в N+1 вершинах симплекса и
перемещении в направлении оптимальной точки с помощью итерационной процедуры.
Рассмотрим подробный алгоритм описанного выше метода оптимизации.
Найдем значения функции ошибки в вершинах симплекса
где , .
Найдем наибольшее значение функции , следующее за наибольшим значением функции
, наименьшее значение функции и соответствующие им точки , и .
Найдем центр тяжести всех точек, за исключением точки .
891390
Отразив точку относительно точки , получим точку и найдем
911492
Сравниваем значения функций и .
Если , то мы получили наименьшее значение функции. Направление из точки в точку
наиболее удобно для перемещения. Таким образом, производится растяжение в этом
направлении и находим точку и значение функции .
931594
Если , то заменяем точку на точку и проверяем (N+1)-ую точку симплекса на
сходимость к минимуму. Если сходимость достигнута, то процесс останавливается;
в противном случае возвращаемся к пункту 2.
Если , то отбрасываем точку . Очевидно, мы переместились слишком далеко от
точки к точке . Поэтому следует заменить точку на точку, в которой было
получено улучшение (пункт 5) проверить сходимость и, если она достигнута,
вернуться к пункту 3.
Если , но то является лучшей точкой по сравнению с другими двумя точками
симплекса и мы заменяем точку на точку и, если сходимость не достигнута,
возвращаемся к пункту 2.
Если и то перейдем к пункту 6.
Сравниваем значения и .
Если , то заменяем точку на точку и значение функции на значение функции .
Запоминаем значение из пункта 5, приведенного выше. Затем переходим к пункту
6.
Если , ясно, что мы переместились слишком далеко от точки к точке . Исправляем
это, найдя точку (а затем и ) с помощью шага сжатия.
951696
Сравниваем значения функц